天天观热点:越来越“像”人!人工智能要“觉醒”了吗?专家一句话点醒!-腾讯新闻
(资料图片)
2022 年 6 月,一则新闻引发热议:一名谷歌公司的工程师宣布,他研究的人工智能已经有意识和灵魂。这位工程师对这个看法深信不疑,结果,公司驳回了这个说法,还让他带薪休假,调离了研究岗位,甚至建议他寻求心理医生的帮助。
这则新闻一出,引发了一场争论。
如今,许多人都接触过语音助手之类的人工智能工具,这些工具的表现和活人相差甚远,没人会认为它们有灵魂。基于这个经验,许多人认为这名工程师实在是太夸张了,甚至怀疑这是一场炒作。
再后来,有人放出了谷歌公司人工智能对话的截图,研究人员和人工智能对话,人工智能说自己认为自己是人,它对关机感到害怕,认为自己是活的。
图库版权图片,不授权转载
看了截图,许多人对人工智能的进展感到惊讶,但依然认为这只是人工智能的某种对话能力,和“活着”、有“灵魂”、有“意识”不是一回事。
不过,到了今年,人们恐怕对这名工程师有了更多理解。
随着基于大语言模型 GPT-3.5 的 ChatGPT 公开(现在又升级到了 GPT-4),人们发现,人工智能在几乎所有对话中都显得“游刃有余”了。虽然 ChatGPT 会非常精确的回答,自己只是人工智能,但是它的回答在一些方面已经接近真人,代码能力、翻译能力甚至超过没有受过训练的人,反而是这些”非人“的能力,提醒我们它不是人。
人们不禁要问,这类大语言模型的人工智能,是否已经有了一定程度的意识?如果现在还没有,那未来会不会有呢?
01
什么是“意识”?
我们先抛开“活着”“灵魂”这些科学上难以说清楚的大词儿,聚焦“人工智能可不可能有意识”这个问题。对此,许多人工智能专家、脑科学家和哲学家都发表过自己的观点,但看法莫衷一是。要想弄清楚这个问题,我们需要先弄清楚,“意识”究竟是什么。
首先,即便是科学领域,大家对意识是什么,以及如何才能产生意识,也有着完全不同的观点。我们先选取一个大部分科学家认可,也符合日常经验的说法:这里说的意识,是神经系统对自我感受和外部感知的总和。
翻译成日常语言,拿我们人类自己举例子,我们能看到光,听到声音,五感信息会进入意识。同时,我们能感觉到自己身体内的疼痛、疲惫、紧张、饥饿等,能处理思想、记忆、情绪等,这些信息都会进入到意识,成为意识的一部分。
而且,人能感觉自己的存在,知道有一个连续的自我,并能审视自我,这也是人类意识的一部分。人只要处于觉醒的状态,就具备意识。睡着了或者昏迷了,就会失去意识。死亡时,神经活动停止,意识就会彻底消散。
02
只有人类有“意识”吗?
如果这么定义意识,地球上恐怕只有人类才有意识了。但是,意识有不同的层级水平,许多动物也具备意识。拥有“自我”,也不是意识的必要条件。
比如,我们虽然不能真的钻到动物脑子里,但是通过实验,科学家猜测黑猩猩、海豚等动物甚至可能有一定的自我感知,拥有意识。观察猫和狗的行为也可以猜测,它们应该不具备“自我”,但是也能感知到内外部世界。
图库版权图片,不授权转载
有些动物的神经系统更简单,感觉系统也和人类相去甚远,但是还是能感受内外部环境,也拥有一定程度的意识。
植物、各种无生命的物体等等,根本不具备神经系统,也就不可能拥有意识了。
03
人工智能能拥有“意识”吗?
在聊这个问题之前,先让我们来看看大语言模型的人工智能能做到什么。
首先,如今的人工智能可以像人一样说话,感觉“像”个人。但是,这种感觉不是硬证据。
人类总是基于自身的经验,判断其他客体是不是有意识,往往对方表现得越像人,人类就越会认为它有意识。这种判断是非常不准确的,人类经常会认为宠物猫和狗有复杂的意识,实际上就是把自己的经验投射到了动物身上。
科学家发现,人类甚至对有眼睛的东西就会投射它有意识的感觉。因此,“感觉像人”和“有意识”不能画等号。
就像谷歌科学家遇到的那样,有些模型会自己说自己是人。这是有意识的表现了吧?但还真不能这么说,大语言模型是基于人类语言训练的,这些训练材料本身就包含海量的自我表达,人工智能可能学会了类似的表达方法,可以生成这样的句子。举个不够恰当的例子,鹦鹉学说话时也可以说我如何如何,但是它却并不能理解我的含义。
光是说自己是个人,也不能算过硬的证据。谷歌的工程师有可能就是被这个问题绕晕了。
图库版权图片,不授权转载
其实,许多学者坚决反对人工智能可以拥有意识,他们的理由多种多样,我挑选其中有代表性的介绍一下。有些学者认为,只有生物才能发展出意识。还有些学者认为,意识需要感知外部世界,只有具有物理意义上的身体,才能发展出意识。更有学者认为,必须发展出一套关于世界的认知,甚至发展出一定的内省能力,才能具备意识。
这些说法听起来很抽象,让我们举个例子来说明一下:
国内的人工智能专家袁行远用几个问题测试 ChatGPT,他问人工智能,自己门牙不好,是应该吃苹果还是吃香蕉。人工智能回答,吃苹果。他纠正道,苹果是硬的,香蕉是软的,牙不好应该吃香蕉,人工智能表示原来如此,它学习了。
袁行远继续进行涉及空间推理等问题的测试,ChatGPT 都给出了错误的答案。对于系列结果,袁行远给出了一个巧妙的比方,他说:ChatGPT 就像是一个小孩,已经读了全世界所有的书,却从来没有走出过他的房间。
许多科学家认为,生物有一具身体,能够“走出房间”感知世界,才能发展出意识。如果这个看法是正确的,那么人工智能恐怕很难发展出动物具备的那种意识了。不过,这也只是这些学者的一家之言。
许多科学家认为,没有身体,光是“看了全世界所有的书”,照样可以发展出意识。目前,基于大语言模型的人工智能不仅具备了强大的对话能力,而且,涌现出了相当好的逻辑推理能力,甚至拥有了猜测他人心理状态的能力,科普中国曾经刊载过文章解读这项研究,见《ChatGPT相当于 9 岁人类小孩,它还真把自己当个人了?》。这种涌现出来的能力可能让它超越人类的预期,获得一定的意识。
而且,按目前的发展进度,这一类人工智能还表现出了一定的通用智力。过去的人工智能往往为特定任务训练,有的会开车,有的会下围棋,但是不会其他技能。大语言模型训练的人工智能不仅能处理文本,还会推理、翻译、编程甚至绘图。
图库版权图片,不授权转载
一些科学家估计,这种通用的智能可能也是意识的基础,随着人工智能不断发展,出现一定程度的意识,或者不同于人类理解的意识,也是有可能的。
最后我们总结一下,通常所说的“意识”是神经系统自我感受和外部感知的总和。人类和许多动物有不同水平的意识。目前来看,基于大语言模型的人工智能还不具备意识。但是随着人工智能演进,出现某种程度的意识,也是有可能的。
作者:陈朝 北京师范大学认知神经科学硕士
审核:陶宁 中科院生物物理所 副研究员
标签: