HOME 首页
SERVICE 服务产品
XINMEITI 新媒体代运营
CASE 服务案例
NEWS 热点资讯
ABOUT 关于我们
CONTACT 联系我们
创意岭
让品牌有温度、有情感
专注品牌策划15年

    人工智能问题讨论(人工智能问题讨论发言)

    发布时间:2023-03-13 23:44:47     稿源: 创意岭    阅读: 146        问大家

    大家好!今天让创意岭的小编来大家介绍下关于人工智能问题讨论的问题,以下是小编对此问题的归纳整理,让我们一起来看看吧。

    ChatGPT国内免费在线使用,一键生成原创文章、方案、文案、工作计划、工作报告、论文、代码、作文、做题和对话答疑等等

    只需要输入关键词,就能返回你想要的内容,越精准,写出的就越详细,有微信小程序端、在线网页版、PC客户端

    官网:https://ai.de1919.com

    本文目录:

    人工智能问题讨论(人工智能问题讨论发言)

    一、机器(人工智能)足够强大,并且自主进化,人类会被被淘汰吗?

    美国人乔治·德沃尔在1954年造出世界上第一台可编程的机器人之后,就时而有人出来发布未来机器人会在能力上超越人类并最终取代人类的警告,只是此类“取代警告”或者出自科幻作家的想象,或者属于个别学者的单纯预言,缺乏说理。事实也是如此,那时计算机论域中与人相关的讨论,还聚焦在电脑或人工智能是否会有类似于人的意识或智能的问题上。而绝大多数学者对此问题的回答,还都是否定性的观点。

    可是近些年的情况明显不同。一个不同是,发出“取代警告”的人已经不是科幻作家与个别学者,而是变成许多专家,其中就有当今世界著名的科学家和技术家。如著名的物理学家霍金曾警告:“人类由于受到缓慢的生物进化的限制,无法与机器竞争,并会被取代,全人工智能的发展可能导致人类的终结。”马斯克则是著名的技术家,他也将人工智能说成人类“最大的生存威胁”,并将发展人工智能比喻成“召唤恶魔”。另一个不同是,此时的“取代警告”已经有了理论论证以及某种程度的事实佐证和可感受性。尤其是当人们发现战胜人类围棋世界冠军的智能机器阿尔法狗居然会自己学习时,就不得不在惊叹之余,相信人工智能还会有越来越快速的发展和越来越令人惊诧的表现。正是在这样的背景下,关于未来的机器人是否将取代人类的讨论就空前热火地在学界展开了,众多学者纷纷参与,各抒己见。

    这个“取代警告”之所以能成为令众人瞩目的热点问题,在于对此问题的不同回答将决定人类社会对人工智能技术的发展将会采取不同的态度和制度安排:要么是积极推动,要么是有所限制。此外,不同的回答还意味着我们能据此判断,现在,除了“取代警告”之外的那些关于人工智能问题的讨论,其中哪些问题是有意义的?哪些问题由于不会出现而是没有意义的?比如,如果未来不存在机器人超越和取代人类的可能,我们就没有必要继续研究以这种“可能性”为前提的人工智能问题。因此,关于“取代警告”的讨论不仅必要和重要,而且还应尽早形成共识性的明确结论。

    那么,这个明确结论会是什么样的观点,这就需要对讨论中已有的各种观点进行全面的分析评价,再做最后判定。

    目前学界讨论“取代警告”的学者,主要是科学家和哲学家,他们对此问题形成两种截然相反的回答,一种是给出肯定回答的“取代论”,即人工智能将来会超越人类并取代人类,成为地球新主宰;另一种是给出否定回答的“否取代论”,即人工智能永远也不可能超越人类和取代人类。

    以下先对这两种回答分别进行考察

    二、人工智能发展对人类的利弊分析

    随着现代科学技术的飞速发展,人智能崛起引发担忧,因为凡事都有两面性。下面由我为大家介绍人工智能发展的利弊分析,希望能帮到你。

    人工智能的利弊分析

    据报道,对于机器人的崛起,专家们曾发出警告,“机器取代人类劳动力可能致使人口冗余”,他们担心“这种超能技术的发展已经超越了人类的驾驭能力,”如今,一些人表示担忧,若人工智能继续进化,我们会失去赖以为生的工作、丧失存在感,甚至会被“终结者”们赶尽杀绝。但事实上,这些恐惧与两个世纪以前人们对机械化和蒸汽机发展的讨论如出一辙,那时,人们针对机器威胁展开一场名为“机器问题”的讨论。而现在,一场关于人工智能利弊的 辩论 正在悄然兴起。

    诞生初期,人工智能技术(AI)也经历过大起大落,但在过去几年的发展黄金期,AI技术突飞猛进,这都得益于“深度学习”技术开启的新篇章。深度学习旨在模拟人脑结构建立大规模(或者“深度”)神经网络,在充沛的数据支持下,神经网络可以通过训练来处理各种各样的事情。

    其实所谓深度学习技术已经默默为我们服务多年了,谷歌(微博)搜索、Facebook的自动图片标记功能、苹果的siri语音助手、亚马逊推送的购物清单,甚至特斯拉的自动驾驶汽车都是深度学习的产物。但是这种快速的发展也引发了人们对于安全和失业问题的担忧。霍金、马斯克等科技大佬都公开发声,担心人工智能会失去控制,上演科幻小说中人机大战的情节,其他人则害怕认知工作的自动化会将会导致大面积的失业。两个世纪以后的今天,曾经的“机器问题”卷土重来,我们需要找出可行的解决方案。

    “机器问题”和解决方案

    启示人们最为担忧的是人工智能技术会破开牢笼,变得邪恶而不可控。早在工业革命浪潮席卷全球时,人机矛盾已经出现,现在的矛盾不过是披上了人工智能的新外衣,人类的焦虑依旧,《科学怪人》及此后类似的文学作品都是这种担忧的映射。然而,尽管人工智能技术已成为一门显学,但是它们只能完成特定的任务。想在智商上战胜人类,AI还差得远呢。此外,AI是否真能超越人类还未可知。名为安德鲁的AI研究人员表示,对人工智能的恐惧无异于在火星殖民还未实现时就担心人口膨胀的问题。在“机器问题”上,人们更加关注人工智能对人类就业和生活方式的影响。

    失业恐惧由来已久。“科技性失业”的恐慌在20世纪60年代(公司开始安装计算机和使用机器人)和80年代(个人电脑开始上市)都曾弥漫开来,似乎大规模的自动化办公马上就要到来,让人类下岗。

    但事实上,每一次恐慌之后,科技进步为社会创造的就业岗位远多于它杀死的过时职位,我们需要更多人从事全新的工作。举例来说,ATM机替代了一些银行柜员,为银行设立分行节约了成本,让雇员进入了机器不能做的销售和客服领域。同样地,电子商务的出现增加了零售商的生存空间。而在办公中引进电脑则不是为了取代员工的位置,员工习得新技能后,会成为电脑的辅助。尽管此前曾有报道称,未来10年或20年间,美国47%的岗位将面临自动化,但是我们的研究显示,这一数值恐怕连10%都不到。

    尽管短期内一些工作消失的弊端会被全新职位出现的长期影响完全抵消且带来更大的好处,但是19世纪工业革命的 经验 表明,转变的过程极其痛苦。从停滞不前的生活水平上反映出经济的增长需要几百年,而从显著的收入变化上来看只需几十年。人口从乡村大量涌入城市工厂,在当时的欧洲引发动荡。各国政府花费了整整一百年的时间构建新的 教育 和福利体系适应这种转变。

    这一次的转变似乎更为迅速,当前科技传播的速度可比200多年前快多了。得益于技术的辅助,高技术工作者的薪资会更高,因此收入不平等的现象正在不断加深。这给用人公司和政府带来了两大挑战:如何帮助工作者学习掌握新技能;如何让后代做好准备,在满世界都是人工智能的社会求得工作机会。

    聪明的回应

    技术的发展使得岗位的需求产生变化,工作者必须适应这种转变。这意味着要调整教育和训练模式,使其足够灵活,从而快速、高效地教授全新的技能。终生学习和在职培训的重要性更加凸显,在线学习和电子游戏式的仿真模拟会更加普遍。而人工智能可以帮助制定个性化计算机 学习计划 ,依照工作者技能差距提供新技术培训机会。

    此外,社会交往技能也会变得更加重要。由于工作岗位的更迭变快,技术革新的脚步也逐渐加快,人类的工作年限越来越长,社交技能成了社会的基石。它能在人工智能主导的社会保持人类的优势,帮助人类完成基于情感和人际往来的工作,这是机器无法拥有的优越性。

    对人工智能和自动化的担忧也催生了人们对“安全网”的渴望,有了它普通人就能免受劳动力市场动乱影响。一些人认为应该革新福利系统,让每个人都享有保障生存的“基本收入”。但是在没有充足证据表明技术革命会导致劳动力需求锐减的形势下,这种做法并不可取。反之,各国应该学习丹麦的“灵活安全系统”制度,让企业裁员更加容易,但是在被裁员的职工接受再培训和再求职期间提供保障。这种制度下,福利、养老金、医保等应该跟随个体本身,而不是与职员身份挂钩。

    尽管技术快速进步,工业时代的教育和福利系统并没有完全实现现代化,相关制度也不够灵活。革新势在必行,决策者必须行动起来,否则当前福利系统会面临更大的压力。19世纪40年代,约翰·穆勒写道,“没有什么比立法者对这类人的照顾更为正当了”,他们的生活被技术的发展所累。在蒸汽时代,这是真理,在人工智能的时代,同样也是。

    人工智能与机器人的区别

    人工智能,这无疑是需要大数据来支撑的。主要是识别类、感应器方面的。就好比说语言翻译,以前是每个单词的翻译,随着搜索引擎的崛起,人们把自己想说的话都发到了网上,然后搜索引擎蜘蛛网抓取下来,就成了一些例句,例句再经过语言的拼凑,电脑语法的组织,选出最佳的表述,这样就得出了翻译的语句,如果需要再人工智能一点,那就加上我们的语音识别与语音朗读(这一切语音的来源也都来自于大数据一点一点的取得的)。这就是我们的人工智能。

    机器人,所需的条件基本就是人工智能+物理外壳,最基本的就是所说到的扫地机器人。如果想要变成终结者那样的机器人,那当然得具备有各种识别,各种感应器,我来预见一下,如果中国的机器人行业发展,首先会用到哪些公司的识别系统吧。

    语音识别,讯飞科大

    物体识别,百度识图

    人脸识别,阿里巴巴

    视频识别,迅雷公司等等的各种识别,再加上温度感应,距离感应方向感应等等,其实最重要的一点就是要有个脑袋,我想如果中国可以,应该会是阿里巴巴的大数据大脑吧。

    一个是系统,靠算法实现,另外一个是实体,也依靠一些内置的程序进行设定好内容交流。

    机器人不过是人工智能的一个载体,人工智能笼统来说分为强人工智能与弱人工智能之分,目前我们所见到的还是弱人工智能,智能专注于某一领域,比如51AI房地产人工智能客服回答数据库中的问题,当然随着数据库内容丰富,回答的准确率也会进一步提升。想特斯拉的无人驾驶也是属于人工智能的范畴,根据路况,速度等参数快速的做出决定。未来有一天强人工智能会与我们看到科幻电影中的机器人一样,用于判断、情感、超强学习能力,但是不知道这种强人工智能在有生之年能不能见到。

    机器人时代给我们带来的弊端

    (1)机器人的大规模使用,必然带来大规模的失业。很多人必然被机器人所取代。而大规模的失业,一则给政府带来沉重的负担,二则必然使需求下降,千千万万的企业不得不破产。科幻作家科利·多克托罗(CoryDoctorow)在BoingBoing网站上写道:“如果我们坚持认为,机器人提高生产力带来的好处应该归功于机器人所有者,那么我们肯定会迎来这样的未来:没有足够多的机器人所有者会购买机器人制造的所有东西。”

    (2)机器人时代的到来是对人类的一次大淘汰。机器人对人类的大淘汰,如果处理不好有可能引发核大战,那将是人类的灾难。人类可能因此而灭亡。

    (3)机器人时代的到来,必将引发空前的人才争夺战。谁拥有的各类一流人才数量多质量高,谁就能赢得最后胜利。

    (4)机器人时代的到来,将出现各种各样的机器人兵团。特别是在军事领域,机器人兵团将给很多人带来灾难。与之同时,也必将出现反机器人军队(兵团)。人类社会及一切事物就是在矛盾斗争中发展的。

    猜你喜欢:

    1. 人工智能的利与弊作文

    2. 有关人工智能利弊的英语作文

    3. 关于人工智能的利与弊的作文

    4. 关于人工智能利弊的论文

    5. 人工智能的利与弊论文

    6. 人工智能利弊作文

    7. 人工智能利弊的论文

    8. 关于人工智能利弊的论文

    三、人工智能的设计伦理主要关注什么问题?应当如何解决?

    :全球范围内针对人工智能伦理准则的讨论已达成基本共识。在此基础上,本文进一步研究4个关键问题:人工智能伦理体系的运行机制问题、人工智能伦理准则的场景落地问题、人工智能伦理风险的预测判别问题,以及人工智能伦理对重大社会问题综合创新的支撑机制问题。这些问题超越了人工智能伦理准则的范围,却是一种完整、有效的人工智能伦理体系所必须解答的。本文的主要贡献是对这4个问题提出一套建议方案。

    关键词:人工智能 伦理体系 伦理准则 风险预测 伦理性创新

    Ethical system of artificial intelligence: infrastructure and key issues

    CHEN Xiaoping

    Abstract: On the basis of consensus on ethical guidelines or principles so far reached in the world, four key issues on ethical system of AI will be studied further in this paper: operating mechanisms of AI ethics system, the grounding of AI ethical guidelines in real-world scenarios, prediction and identification of ethical risks of AI technology, and comprehensive innovation mechanisms of handling major social problems supported by the AI ethics system. These issues go beyond the realm of AI ethical guidelines, while they must be solved in order to develop a complete and effective operating system of AI ethics. A preliminary plan for solving these issues is proposed as the main contribution of this paper.

    随着人工智能第三次浪潮带来的重要进展,人工智能伦理挑战已成为当前国内外普遍关注的一个焦点,一些组织和机构开展了相关议题的研讨,发布了一批人工智能伦理准则的建议。中国人工智能学会对人工智能伦理问题高度重视,于2018年年中开始组建人工智能伦理专委会。在2019全球人工智能技术大会上,5月26日举行了“全球视野下的人工智能伦理”论坛,在国际上首次提出了人工智能伦理体系规划问题,这意味着人工智能伦理建设开始进入第三阶段,而人工智能伦理体系的关键问题研究提上了议事日程。正如中国人工智能学会理事长李德毅院士在论坛致辞中指出的那样,本次论坛具有里程碑意义。

    1 人工智能伦理建设:从伦理准则到伦理体系

    人工智能伦理建设已经历了两个阶段。第一阶段是人工智能伦理必要性的讨论,从专业角度说,耶鲁大学Wendell Wallach等美国学者起了带头作用,在国际上引起了普遍重视;从更广泛的背景看,尤瓦尔·赫拉利的《人类简史》发挥了重要的推动作用。第二阶段是人工智能伦理准则的讨论,欧盟走在前面,中国和其他一些国家也积极参与其中。

    在第二阶段,欧盟人工智能伦理高级专家组提出了人工智能伦理的7条准则[1],包括:确保人的能动性和监督性、保证技术稳健性和安全性、加强隐私和数据管理、保证透明度、维持人工智能系统使用的多样性、非歧视性和公平性、增强社会福祉、加强问责制。我国清华大学人工智能与安全项目组提出了6条准则[2]:福祉原则、安全原则、共享原则、和平原则、法治原则、合作原则。据不完全统计[3-15],迄今已有40多个机构或组织提出了各自的人工智能伦理准则建议。总体上看,所有这些准则建议是基本一致的。

    四、不要再争论人工智能是否“有知觉”-问题是我们能否相信它

    过去一个月,谷歌工程师布雷克·莱莫因(BlakeLemoine)的文章、采访和其他类型的媒体报道如火如荼。莱莫因告诉《华盛顿邮报》(WashingtonPost),为与用户对话创建的大型语言模型LaMDA是“有感觉的”

    在阅读了十几篇关于这个话题的不同观点后,我不得不说,媒体对当前人工智能技术的炒作已经(有点)失望了。许多文章讨论了为什么深层神经网络不是“有知觉的”或“有意识的”与几年前相比,这是一个进步,当时新闻媒体正在创造关于人工智能系统发明自己的语言、接管每项工作以及加速向人工通用智能发展的轰动故事。

    但我们再次讨论感知和意识这一事实突显了一个重要的观点:我们的人工智能系统,即大型语言模型,正变得越来越有说服力,同时仍然存在科学家在不同场合指出的根本缺陷。我知道“人工智能愚弄人类”自20世纪60年代伊丽莎·查博特(ElizaChatbot)以来就一直在讨论,但今天的法学硕士实际上处于另一个层面。如果你不知道语言模型是如何工作的,布莱克·莱莫因(BlakeLemoine)与拉姆达(LaMDA)的对话看起来几乎是超现实主义的,即使这些对话是经过精心挑选和编辑的。

    然而,我想在这里指出的一点是,“感知”和“意识”并不是关于LLM和当前AI技术的最佳讨论。更重要的讨论将是关于人类兼容性和信任的讨论,特别是因为这些技术正准备集成到日常应用中。

    神经网络和大型语言模型的工作在过去的一周里已经进行了彻底的讨论(我强烈建议阅读Melanie Mitchell对MSNBC的采访,了解LaMDA和其他LLM的工作原理)。我想从比较LLM的人类语言开始,更详细地介绍一下情况。

    对人类来说,语言是一种沟通大脑中发生的复杂和多维激活的手段。例如,当两个兄弟相互交谈时,其中一个说“妈妈”,这个词与大脑不同部位的许多激活有关,包括对她的声音、面部、感觉的记忆,以及从遥远的过去到(可能)最近几天的不同经历。事实上,兄弟俩在大脑中的表现形式可能存在巨大差异,这取决于他们各自的经历。然而,“妈妈”这个词提供了一种压缩的、表现良好的近似值,有助于他们在相同的概念上达成一致。

    当你在与陌生人的对话中使用“妈妈”这个词时,经验和记忆之间的差异会变得更大。但同样,你设法在你头脑中的共同概念的基础上达成协议。

    把语言想象成一种压缩算法,可以帮助将大脑中的大量信息传递给另一个人。语言的进化与我们在世界上的经历直接相关,从我们环境中的物理互动到与其他人类的 社会 互动。

    语言是建立在我们在世界上的共同经历之上的。孩子们甚至在说出第一个单词之前就知道物体的重力、尺寸、物理一致性,以及人类和 社会 概念,如疼痛、悲伤、恐惧、家庭和友谊。没有这些经验,语言就没有意义。这就是为什么语言通常忽略了对话者共享的常识和信息。另一方面,分享经验和记忆的程度将决定你与另一个人交谈的深度。

    相比之下,大型语言模型没有物理和 社会 经验。他们接受了数十亿个单词的训练,并学会通过预测下一个单词序列来响应提示。这是一种在过去几年中取得了巨大成果的方法,尤其是在引入变压器体系结构之后。

    变形金刚如何做出令人信服的预测?它们将文本转换为“标记”和“嵌入”,即多维空间中单词的数学表示。然后,他们处理嵌入以添加其他维度,例如文本序列中单词之间的关系及其在句子和段落中的作用。有了足够的例子,这些嵌入可以很好地近似单词在序列中的显示方式。变形金刚之所以特别受欢迎,是因为变形金刚具有可扩展性:变形金刚的精确度随着变大和输入更多数据而提高,而且大多可以通过无监督学习进行训练。

    但根本区别仍然存在。神经网络通过将语言转化为嵌入来处理语言。对人类来说,语言是思想、感觉、记忆、身体经验和许多其他我们尚未发现的关于大脑的东西的嵌入。

    这就是为什么可以公平地说,尽管它们取得了巨大的进步和令人印象深刻的结果,但变形金刚、大型语言模型、深层神经网络等仍然远远不能说我们的语言。

    今天的很多讨论都是关于我们是否应该将感知、意识和人格等属性分配给AI。这些讨论的问题在于,它们侧重于定义模糊的概念,对不同的人意味着不同的东西。

    例如,功能主义者可能会争辩说,神经网络和大型语言模型是有意识的,因为它们表现出(至少部分地)你所期望的人类的相同行为,即使它们构建在不同的基础上。其他人可能会认为有机物质是意识的必要条件,并得出结论,神经网络永远不会有意识。你可以加入关于qualia、中国室内实验、图灵测试等的争论,讨论可以永远持续下去。

    然而,一个更实际的问题是,当前的神经网络与人类思维的“兼容性”如何,以及我们在关键应用中能信任它们到什么程度?这是一个重要的讨论,因为大型语言模型大多是由寻求将其转化为商业应用程序的公司开发的。

    例如,经过足够的训练,你可能可以训练黑猩猩开车。但你会把它放在方向盘后面,放在行人将要穿过的道路上吗?你不会的,因为你知道,无论黑猩猩多么聪明,它们的思维方式都与人类不同,也不能被赋予承担人类安全任务的责任。

    同样,鹦鹉也可以学会许多短语。但你会相信它是你的客户服务代理吗?可能不会。

    即使涉及到人类,一些认知障碍也会使人们无法从事某些需要人际互动或考虑人类安全的工作和任务。在许多情况下,这些人可以读、写、说得流利,在冗长的对话中保持一致性和逻辑性。我们不怀疑他们的感知、意识或人格。但我们知道,由于他们的疾病,他们的决定可能变得不一致和不可预测(例如,参见菲尼亚斯·盖奇的案例)。

    重要的是你是否可以相信这个人会像普通人一样思考和决定。在许多情况下,我们信任有任务的人,因为我们知道他们的感官系统、常识、感觉、目标和奖励与我们的基本一致,即使他们不会说我们的语言。

    我们对拉姆达了解多少?首先,它不像我们那样感知世界。它对语言的“知识”并非建立在与我们相同的经验基础上。它的常识是建立在一个不稳定的基础上的,因为无法保证大量的文本将涵盖我们在语言中遗漏的所有内容。

    考虑到这种不兼容性,您能在多大程度上信任LaMDA和其他大型语言模型,无论它们在生成文本输出方面有多好?一个友好而有趣的聊天机器人程序可能不是一个坏主意,只要它不把对话引向敏感话题。搜索引擎也是LLM的一个很好的应用领域(谷歌在搜索中使用BERT已有几年了)。但是,你能信任他们完成更敏感的任务吗?比如开放式客户服务聊天机器人或银行顾问(即使他们接受过大量相关对话记录的培训或调整)?

    我的想法是,我们需要特定于应用程序的基准来测试LLM的一致性以及它们在不同领域与人类常识的兼容性。当涉及到实际应用程序时,应该始终有明确定义的边界,以确定对话在哪里成为LLM的禁区,并且应该交给人工操作员。

    不久前,我写了一篇关于“问题发现者”和“问题解决者”的文章基本上,我所说的是,人类智能是关于发现正确的问题,而人工智能(或我们今天的人工智能)是关于以最有效的方式解决这些问题。

    我们一再看到,计算机能够找到解决复杂问题的捷径,而不需要获得人类的认知能力。我们已经在跳棋、国际象棋、围棋、编程竞赛、蛋白质折叠和其他定义明确的问题中看到了这一点。

    自然语言在某些方面与人工智能解决的所有其他问题不同,但也很相似。一方面,《变形金刚》和《法学硕士》表明,它们可以产生令人印象深刻的结果,而无需像普通人一样经历学习语言的过程,即首先 探索 世界并理解其基本规则,然后获得基于这一共同知识与他人互动的语言。另一方面,他们缺乏学习语言的人类经验。它们对于解决定义良好的语言相关问题非常有用。但是,我们不应该忘记,它们与人类语言处理的兼容性是有限的,因此我们应该小心我们对它们的信任程度。

    这篇文章最初由BenDickson在TechTalks上发表,这是一份研究技术趋势、它们如何影响我们的生活和经营方式以及它们解决的问题的出版物。但我们也讨论了技术的邪恶一面,新技术的黑暗影响,以及我们需要注意什么。你可以在这里阅读原文。

    以上就是关于人工智能问题讨论相关问题的回答。希望能帮到你,如有更多相关问题,您也可以联系我们的客服进行咨询,客服也会为您讲解更多精彩的知识和内容。


    推荐阅读:

    无人工厂为什么还没普及(无人工厂为什么还没普及中国)

    人工智能取代不了的职业(人工智能取代不了的职业有哪些)

    人工智能找什么工作好(人工智能找什么工作好找)

    雕塑喷泉景观设计方案(雕塑喷泉景观设计方案模板)

    微软必应词典网页版