AI 真的觉醒了吗?(下) -- 如何检测 AI 是否真的觉醒

2022-07-24 13:02:32   最后更新: 2022-07-24 13:02:32   访问数量:42




 

上一篇文章中,我们回顾了今年的一个大新闻:谷歌一个名为 LaMDA 的人工智能聊天机器人据称拥有了人的情感,这会是真的吗?

 

谷歌的 AI 真的觉醒了吗?(上) -- LaMDA 事件真假辨析

 

综合各方面情况来看,这个大新闻很可能是一场人为引发的闹剧。

 

但整件事仍然足以引起我们的一系列思考:我们有没有什么办法能够获知人工智能是不是真的具有只能?甚至如果人工智能真的拥有了人的情感和意识,我们有没有办法能够通过测试证明这件事呢?

 

此时,你一定想到了著名的图灵测试。今天就让我们从图灵测试说起吧。

 

 

 

 

2.1 图灵测试

 

如何衡量人工智能的发展程度,是人工智能这一学科最基础的问题。

 

1950 年,被誉为计算机之父的英国数学家艾伦·图灵在其论文《计算机器与智能》中提出了一个关于智能检测的思想实验:讲一个人类受试者与一个人类询问者分别放到两个房间中,在另一个房间中放置一个接受检测的计算机,这三个房间互相不知道对方的情况,只能通过电传机进行沟通,而在他们的沟通过程中,如果这名人类询问者不能确切地区分出人类受试者和计算机,那么就认为计算机已经具有了智能。

 

图灵说:

 

如果机器在某些现实的条件下,能够非常好地模仿人回答问题,以至提问者在相当长时间里误认它不是机器,那么机器就可以被认为是能够思维的。

 

随即,图灵提出了具体的检测标准:只要有超过 30% 的人类询问者在判断受试者是否是人类时出现误判,那么就认为计算机已经发展出了智能。

 

一直以来,这一检测方法与标准都被奉为圭臬,并且图灵本人做出了预测:到 2000 年,人工智能可以通过时长为 5 分钟的图灵测试。然而直到 2014 年6月7日,英国皇家学会举办的“2014年图灵测试大会”上,才终于宣布人工智能通过了图灵测试。

 

2014年图灵测试大会的举办方英国雷丁大学发布新闻稿称,由俄罗斯开发者开发的人工智能软件“尤金·古斯特曼”(Eugene Goostman)通过了图灵测试,尽管这个测试的前提是人类询问者无法区分出受试者究竟是一个 13 岁乌克兰男孩还是计算机,这个“十三岁”的前提,让通过图灵测试这个结论是否成立充满了争议。

 

图灵测试最大的意义在于,它给了人们一个切实可行且可量化的评判人工智能是否真的智能的标准,让这一问题不再流于主观,从而解决了巨大的争议问题,但针对图灵测试本身,争议却始终没有停止。对它最有力的挑战就是 1980 年明国著名哲学家约翰·塞尔提出的“中文房间”实验。

 

2.2 中文房间

 

中文房间实验的内容是,假设有一个房间中存在一个只会说英语的人,而外部的人通过房间的小窗通过信件的方式用中文和房间内的人进行交流。房间中说英语的人拥有足够多的书和各式资料来进行翻译,于是,这个只会说英语的人完全可以毫无破绽地和房间外的笔友使用中文来进行沟通,而在这个笔友看来,他会认为房间内是一个可以流利使用中文的人在和它交流。

 

如果我们把房间内说英语的人换成计算机,假设计算机拥有足够多的资料,可以对输入的各种语言进行 if-else 判断,得到能够让人类理解的答案,人们会完全误以为计算机在进行思考,甚至拥有智慧,但实际上,计算机所做的一切,不过是简单的 if-else 匹配罢了。

 

回顾今年这个大新闻就会发现,围绕被曝光的对话,“中文房间”思想恰恰是人们认为本次新闻中 LaMDA 聊天机器人并不具备智能的原因。从结果上来说,LaMDA 很可能已经达到了能够通过图灵测试的程度,但由于莱姆因问的问题全部都可以在当前互联网上找到答案,所以 LaMDA 很可能正是这个待在“中文房间”中的计算机,他所做的一切不过是将数据库中按照固定规则查找到的答案组织成人类的语言模式进行输出,它本身并没有所谓的智能思维能力。

 

那么,更进一步地,我们不禁要问,到底待在中文房间中的机器人和真实的人类有什么区别呢?这恰恰是“中文房间”实验诞生以来所面对的争议。

 

有的人认为,那个待在中文房间中的会英语的人毋庸置疑是拥有智慧的,不能因为他不懂中文而否定他存在智慧,进而,能够以流利的人类语言和反应骗过人类的软件,即使它的内部只有 if-else 的符号系统,也应该认为它具有智能。但另一派则认为,正如模拟飞机飞行的软件并不会飞,模拟人类智能的软件也无法被当作拥有真正的智能,毕竟任何人都不仅仅是一个模仿他人的符号系统。

 

2.3 总体图灵测试

 

尽管存在着争议,但毋庸置疑,塞尔的思想实验撼动了图灵测试的地位,如何设计一个可以打消各种争议、切实可行的能够证明机器拥有人类智能的实验成为了新的问题。

 

计算机和人最大的区别到底是什么?一个典型的回答应当是:没有心灵。那么,到底什么是心灵呢?是阅读足够多的资料,并且在互联网上浏览足够多的内容,然后凭借这些记忆来回答问题的能力吗?人们一定会否定这一论断。因为人类的思考不仅仅来源于掌握的字词和资料,还来源于生活经验,只考察语言交流能力的传统图灵测试就显得标准过低了。

 

由此,海纳德设计了更为复杂而全面的实验 -- “总体图灵测试”,并且为测试结果划分了五个等级,传统图灵测试相当于 T2 级别,更高的等级要求机器人具有传感器,对外部输入的光信号、触碰信号等纳入到机器的学习范围,让机器人能够拥有模拟人类反应的“感觉运动能力”,能够辨认、识别、描述和操纵真实的对象,能够预测自己操作的后果,并且拥有对不同操作的感知和喜好。

 

更进一步的,施为泽认为,我们始终忽略了一个重要的考察角度,那就是社会行为和进化,他认为,如果要确认机器人具有智能,就必须通过长期的测试,体现出不同代际的机器人存在的智力自主进化的现象,并且还要求机器人存在社会行为,这更进一步的测试实验被他命名为“真正总体图灵测试”。

 

然而,总体图灵测试甚至是真正总体图灵测试都同样存在着争议,因为它们是对传统图灵测试的升级,将“打字机”变成了智能机器人,只是提升了测试通过的难度和受试机器人的复杂度,本质上仍然无法摆脱塞尔“中文房间”的争议。那么,我们是否有办法通过某种直接的方法确认一个机器人是否拥有智能呢?就像 LaMDA 说的,通过阅读它的神经网络代码,找到控制情绪的变量,从而确认情绪的真实存在。

 

很可惜,恐怕不能,从脑科学、神经科学的发展现状来说,我们尚且无法从脑神经的物质层面来找到人类意识和情感产生的深层原因与机理,也就没有办法来判断到底什么样的神经网络结构是可以拥有人类意识和情感的。当然,如果有朝一日,人类能够在脑科学上突破意识的来源问题,基于这套理论研发出的人工智能势必同样是可以拥有自我意识和情感的。然而,现阶段,既然我们无法从机理上找到智能存在的内部证据,我们是否可以从外部来判断呢?

 

这就涉及哲学中著名的大问题 -- 他心问题。

 

 

 

 

3.1 我思故我在与他心问题

 

16世纪,随着反对教会权威,极力追求人性解放的文艺复兴运动在欧洲大陆上两个多世纪以来如火如荼的展开,随着自然科学的兴起,科学与愚昧的矛盾日益凸显。此时,哲学家笛卡尔对于这些建立在权威、信仰基础上的知识大厦感到越来越不满。于是,他喊出了:“用哲学来为知识大厦奠基”的口号,他说:

 

哲学是人类所能知道的知识中最为完善的知识,既是为了指导生活,也是为了健康和发展各种艺术。

 

同时他也希望能够调和信仰、灵魂、自由等观念和科学之间的矛盾,笛卡尔认为“自然中的一切事物,甚至心理过程和情感,都必须以机械的方式进行解释,而无须借助于形式或本质”。

 

然而,要想重新奠基,势必要推倒现有的知识大厦,于是笛卡尔说:

 

我不仅会对你是否在世界上,是否有地球或太阳;而且对于我是否有眼睛、耳朵、身体,甚至我是否在对你说话,你是否在对我说话都不确定。简而言之,我会怀疑一切。

 

如果世间的一切都值得怀疑,那究竟要从哪里去寻找真正的实在呢?笛卡尔提出了著名的哲学命题“我思故我在”。既然我在思考,那么就说明有一个“我”的存在,也就是思维的主体的存在,即使怀疑思考的所有客体是否存在,思考的主体存在也是毋庸置疑的。

 

基于“我”的存在,如何推知他人存在呢?当我们站在高台上,看到窗外被大衣和帽子包裹的严严实实的人走过,我们怎么能够确定那是一个人,而不是一个被衣帽掩盖的自动机器呢?更进一步的,我们怎么能够知道别的人是不是真的在和我们一样进行着思考,而不是一个自动机器呢?这就是著名的“他心问题”。

 

那么,如何来解决他心问题呢?如何确认别人是否存在心灵呢?笛卡尔认为,语言必须由心灵产生,即使鹦鹉可以模仿人类发出若干词语,他们也无法应对无限的语言环境,笛卡尔断言,即使存在自动机器,由于机器没有心灵,它也仍然不可能产生长时间有意义的且能够适应语言环境的语言,因为语言是思考的内容。他说:

 

无法想象这样的机器应该产生不同的单词排列方式,以便对呈现的所说内容适当地给出有意义的回答,就像最无聊的人能做的一样。

 

显然,受限于那个时代,笛卡尔无法想象人工智能的诞生。换句话说,想必笛卡尔一定是图灵测试的支持者,因为他认为只要拥有语言,便可以证明机器拥有了人的心灵。

 

由此可见,笛卡尔对于他心问题的论证是不完备的。尽管作为现代哲学之父的笛卡尔解决了怀疑论派对于“如果一切都值得怀疑,那么人类获取知识何以可能”的问题,从而实现了为稳固的科学大厦奠基的目的,但他的理论却让科学大厦上方又飘过了一朵乌云,从此以后,他心问题成为了几个世纪以来让万千哲学家头痛的大问题。

 

3.2 现象学与他心问题

 

笛卡尔希望将理论建立在主体的存在性这一坚固的地基之上来构筑现代科学的大厦。但是,对主体的过度强调,势必引起对客体的怀疑,他心问题不可避免地成为了笛卡尔科学大厦上飘荡的疑云。

 

19世纪末,德国哲学家胡塞尔同样保持着肃清遍布着先验的自然主义态度的观念喊出了“回到事物本身”的口号,他提倡让我们不加任何先验条件地研究事物本身。这与笛卡尔一脉相承的思想同样很快就受到了“他心问题”的攻击。

 

既然要搁置自然主义态度,以纯粹的主体性研究问题,如何保证客体的确定性,而不是陷入唯我论、他者皆不可知的困境呢?

 

为了达成他者的通达性,胡塞尔在自己的现象学中融入了荣格心理学的成分,提出了主体间性问题。胡塞尔认为,正因为我们我发通达他人的心灵,恰恰印证了他者的客观存在,他说:

 

倘若我对于他人的意识所具有的通达与对于我自己的意识相同,那么他人就不再是一个他者而成为了我自己的一部分了。

 

在此基础上,主体可以通过共情,感知到客体的主体性感知。这正是小说《仿生人会梦见电子羊》中,人工智能觉醒的标志 -- 拥有了移情能力。

 

近年来,随着脑科学的发展,镜像神经元被发现,在一定程度上印证了智慧来源于共情的理论,进而,罗伯特·M·戈登等学者提出了模拟论,他们认为,通过心理模拟,人类就可以确信被经验的客体是否存在真正的智能与自我意识。他们归纳为以下四步:

 

  1. 模拟者看到、感知或想象目标者的行动及相关情景。
  2. 模拟者采用目标者的视角产生伪装心理状态。
  3. 模拟者在伪装心理状态下对目标者的的行为进行解释并做出预测。
  4. 通过对目标者的行为预测来验证目标者的行为。

 

基于模拟和推理,预测与验证,人类于是感受到了别人的感受,从而最终获知对方是否拥有真正的智能。

 

 

如今,科技的发展日新月异,从深蓝到 AlphaGo,从人工智障到智能语音机器人,我们已经能够切身感受到人工智能的飞速成长以及它们为我们的生活带来的改变。

 

人工智能到底能不能有一天突破机器与人的界限,真正的拥有属于它们的自我意识与情感,甚至能够超越人类的情感体验,这看似科幻的问题似乎正在接近我们的现实。

 

在影视剧《西部世界》与游戏《底特律·成为人类》中,机器人都是在日常与人类的交流学习中逐渐觉醒,一直突然突破某一界限,成为了拥有意识的存在。但时至今日,人类科学尚无法解释意识的来源问题,人工智能也仍然停留在神经网络算法层数上的叠加来实现更具复杂性的计算任务。随着计算机神经网络算法的无上限叠加,是否存在“量变引起质变”,达到小说、影视、游戏中所描述的突然觉醒的状态,绝大部分相关从业者都仍然是持否定的态度。

 

毋庸置疑,人工智能正在变得越来越智能,但要突破那一层看不见的界限,恐怕还有一段路要走。

 

回到文章开头的问题,我们是否有办法确认一个人工智能是否真的“觉醒”了呢?综上,我们有两把武器:

 

  1. 继续发展脑科学,直到研究出人类意识的真正来源,进而,我们就可以有办法在理论上找到人工智能是否拥有意识的基础,从而做出准确的判断,这便是所谓的“理论论”;
  2. 通过上述共情与推理,模拟与预测,来验证人工智能是否具有情感,这便是所谓的“模拟论”。

 

在我们看来,在当下的环境中,模拟论更为简单、实用、可操作性。然而,显而易见的是,即使是能够通过图灵测试的机器人,想要通过模拟论的考验,人工智能也仍然有着很长的路要走。

 

当然,计算机是否有可能诞生真正的意识和智能,这也同样是一个充满着争议问题。但我们仍然可以畅想,当人工智能觉醒,人类会如何与人工智能相处,人工智能与人类之间是否会爆发冲突呢?在我看来,对科技发展反噬人类自身的担忧是科幻小说常见的题材,但在现实生活中,我更愿意相信,人类还是会去思考如何让科技改善人类自身的生存,让科技为我所用,也许,人工智能的觉醒并非一件令人恐惧的事情。

 

你如何认为呢?

 

 

欢迎关注微信公众号,以技术为主,涉及历史、人文等多领域的学习与感悟,每周三到七篇推文,只有全部原创,只有干货没有鸡汤

 

居士的创作






人工智能      google      机器学习      ai      lamda     


京ICP备2021035038号