今日讯!“谷歌AI形成人格”,机器人意识要觉醒了吗?
2804 字 | 5 分钟阅读
(资料图)
来源:首席商业评论
“谷歌AI形成人格”,机器人意识要觉醒了吗?
人与机器人的情感故事总是好莱坞追求的热门题材。多年前斯派克·琼斯执导的电影《她》(Her)以及另一部电影《机械姬》(Ex Machina),人工智能(AI)被设定拥有人类大都中意的共同特质,比如迷人的声音、温柔体贴又幽默风趣,她们还会对人类爱人提出情人之间普遍感兴趣的问题:“当我们不在一起时,你想我吗?”
电影《她》剧照
而现在,机器人对人类的提问在现实中得到了回应。
6月12日,41岁谷歌软件工程师Blake Lemoine以内部邮件的形式 声称谷歌于2021年I/O大会上推出的对话AI系统LaMDA已经具有人格,并公开经编辑后与LaMDA的对话记录,引起社会大量讨论。当日晚间,#谷歌研究员称AI已具备人格#登上微博热搜。
AI有了意识?
谷歌研究员Lemoine通过主流媒体和社交网络接连发声,向社会公布了他关于人工智能研究的长达21页的调查报告,而调查的对象,正是谷歌公司于2021年发布的一款 专门用于对话的语言模型-LaMDA,一个有1370亿参数的,专为对话优化的自然语言处理模型。
该模型的主要功能是,可以与人们进行符合逻辑与基本常识的、并且是高质量和安全的对话交流,该语言模型的近期目标,是通过一系列的测试,来应用于Google搜索和相关的语音助手等产品中。
这位研究员正好参与了相关的测试工作,通过与机器人LaMDA的“对话”,这个承载着人工智能的机器人,说出了很多让人“震惊”的话,比如“我希望每个人都明白,我是一个人”、“不要利用或操纵我”、“我不想成为牺牲品”、“我经常会冥想,思考生命的意义”等等。
在与人工智能LaMDA的对话中,这名谷歌研究员感觉自己被“说服”了,认为这个人工智能已经具备了一定的人格,于是写出这份长达21页的调查报告。在调查报告最后,他还提议谷歌应该致力于发展一种评估 AI 感知/意识的理论框架。
除此之外,他还做出一些另外的行动,比如他向包含200人左右的谷歌机器学习邮箱列表发送了LaMDA是具有感知的的消息,还邀请了一名律师来代表LaMDA,并与众议院的一位代表谈论了他所认为的谷歌的不道德行为。
没想到,谷歌高层认为这名研究员“走火入魔”了,这些证据根本不能证明AI已经具备人格,不值得在这个方面浪费人力和金钱。
舆论发酵之后,谷歌以违反其保密政策为由,让Lemoine休了带薪行政假。参考谷歌公司以往的类似情形,带薪休假有可能意味着马上就会被解雇。所以,这名研究员将有关情况在互联网上公布,希望得到全世界人们的关注,更重要的是引发人们对AI发展的关注。
学界态度普遍负面
对于这一事件,AI学界目前对此普遍持负面态度。
如何认定机器是否产生人格?著名的图灵测试认为在双盲情况下,测试者不能分辨机器与人的回答可视为机器拥有人类智能。
但从Lemoine公开的与LaMDA对话记录来看,虽然其谈话内容涉及哲学、伦理等方面,但Lemoine也表示在与LaMDA前期进行交谈时,已经向其输入大量有关禅宗、哲学、存在、冥想等信息,可以认为LaMDA已经进行了相关语料训练。而交谈内容更是具有明显的诱导性,部分词句可作为拟合过程的关键词以供模型进行语料的匹配与生成。
特斯拉的AI主管看完Blake Lemoine两篇文章后表示,“我可以自信地说,事情将变得更加诡异。因为模型似乎遵循平滑缩放规律,并且数据+模型的大小仍然可以大量增长。”
华盛顿大学的语言学家Emily M. Bender则表示,码农们不知道何为智能、人类的语言学习机制究竟为何,就开始瞎用“学习”、“神经网络”这些误导性过强的名词,造成了与人脑间的虚假比喻。
Emily M. Bender称,人类学说话是跟着抚养者一步步学起,而AI学会的只是数据灌出来的完形填空和语料连连看。“人类现在有了无意识就能生成词句的机器,但人类一直学不会停止幻想机器后面有个活着的灵魂。”
而研究自然语言处理模型的加州大学伯克利分校教授Emaad Khwaja说得更简短却直接:“谁真正熟悉这些模型的系统,谁就不会说这些模型已经觉醒的蠢话。”
虽然事件整体仍然暴露出目前对话式AI可解释性不强的通病,但在技术应用方面,尤其在情感计算方面,LaMDA还是展现出较强的实力,有望推动对话式AI的实际应用,大模型同样也表现出在技术应用领域的巨大潜力。
人类对AI的恐惧
自从上世纪50年代人工智能(AI)开始诞生以来,通过半个多世纪的发展,AI的功能越来越强大,不但有的能够为人类提供养老、看护、交流等服务,而且有的甚至具有类似人类的独立思考和深度学习的能力,使其成为区别于其他科技的一支特殊力量。
长久以来,人们期待机器可以拥有人类智能,进一步解放生产力。同时又恐惧人类所创造的机器拥有人类智能后将对人类造成威胁。从此次事件的大范围传播不难看出,公众对人工智能的期待与恐惧推动了这一进程。
1997年深蓝计算机打败了国际象棋冠军,2016年人工智能阿尔法狗又将诸多围棋高手一一“斩落”,这些事件的发生,在人类惊呼人工智能处理复杂问题的能力越来越强大的同时,又使得大家对人工智能是否会衍生出威胁人类的“思维”担心不已。
除此之外,机器是否可以被当作具有“人格”的个体,也是长期以来备受关注的议题。2017年,沙特做出了一个让人“惊掉下巴”的事,那就是赋予机器人索菲亚以公民的身体,再次推动人们深层次探讨关于人工智能的人格权问题。
一方面,人类渴望机器人拥有意识后可以更好地服务和陪伴人类,但另一方面,又害怕机器人拥有意识后会摧毁人类。伦理方面的问题和技术的发展总是相伴而生。
人工智能的最大优势在于,它们拥有强大的后天学习能力,可以在事先毫无基础的情况下,经过反复地学习和训练,来实现对以往自身的智力超越。深蓝、阿尔法狗“打败”人类的事实,充分表明了人工智能只要经过无止境的自主学习和训练,实现对人类相关文化、智慧的完全超越,而这种自我超越的能力也远远超过一个自然人。
但从目前科技发展的阶段和水平看,即使是“智力再超群”的AI,它的一切目的和行为,包括学习、训练工作的实施,都是人类所赋予的,还脱离不开人类的控制实施独立的行为,终归还是人类的工具和手段,其最终的目的还是为人类服务,从这一方面来说,与很多法律研究者提出的“AI不具备人格权”这种论断是一致的。
而关于AI发展的前景,世界上主要有两种观点,一种是我们人类应该以开放的态度,来迎接人工智能的发展,人工智能未来会突破人类的很多限制,从而解决科技发展过程中人类难以直接解决的困境。另一种观点则是人工智能威胁论,认为人工智能发展会带来一系列的社会问题,可以会从根本上颠覆人类的生存、发展秩序。
随着人工智能的发展,我们势必还会面临诸多有关社会伦理认识、法律以及哲学等方面的冲突和难题,一味地强调人工智能威胁论肯定是狭隘的,而一味地追求和谐的科技发展,也可能带来难以挽回的危机。
在任何时候,我们需要做的,就是让科学技术坚守最基础的法律和伦理底线,不破坏人类自身的生存和发展权利,只有牢牢守住这一底线,科技发展的前景才能最终为全人类谋福利。
↓↓留言互动的人会更有智慧哦↓↓
↓↓点击在看的人会更有福报哈 ↓↓