人工智能可能永远都不会有自我意识,“中文屋实验”可以证明这一点

它能模仿你、跟随你、打败你,但“它”依旧不是“你”。

自脑极体建立以来,我们一直努力避开人工智能领域中比较“玄虚”的部分,尽量让每一篇文字都足够实际、落地、可读,但是偶尔换换口味也未尝不可对不对?

今天我们就来聊一个比较“玄”的话题:拥有自我意识和情感的超级人工智能到底会不会出现?说实话,这个话题都烂大街了。科学家、科技大佬、各国政要们争的头破血流,我们也不可能知道答案。

但我们想说的,是什么事都要讲基本…不对,是什么事都要讲逻辑。有没有一些理论或者猜想可以触达AI觉醒这个话题呢?让我们不要只能云里雾里或者一腔热血的想象未来?

巧合的是,确实有一些这样的理论,比如说著名的“中文房间悖论”。这个情景猜想在大部分情况下都被用来否定“图灵测试”。但它更深层的本意,其实是在阐释人工智能永远不可能像人类那样拥有自我意识。

什么是“中文屋实验”?

所谓的中文屋实验,是由美国哲学家约翰·希尔勒(John Searle)在1980年发表论文提出的一个思维试验。

(这里我们插句题外话,今年3月,84岁的约翰·希尔勒被爆出性侵华裔女助理事件。其本人目前已被加州大学停课,案件还在司法处理当中。虽然本文基于约翰·希尔勒提出的理论猜想,但在这里还是要对此人表示发自肺腑的鄙视与厌恶)。

这个思维实验是说,如果把一位只会说英语的人关在一个封闭的房间里,他只能靠墙上的一个小洞传递纸条来与外界交流,而外面传进来的纸条全部由中文写成。

这个人带着一本写有中文翻译程序的书,房间里还有足够的稿纸、铅笔和橱柜。那么利用中文翻译程序,这个人就可以把传进来的文字翻译成英文,再利用程序把自己的回复翻译成中文传出去。在这样的情景里,外面的人会认为屋里的人完全通晓中文,但事实上这个人只会操作翻译工具,对中文一窍不通。

当然了,这是个思维实验,具体操作起来近乎不可能。但这个实验里蕴含的思想却在表达这样一个可能:机器所表现出的智能(理解中文),很可能只是翻译程序带来的假象,其实它对真正的人类智能一无所知。 

这个实验本来是为了反驳图灵测试的,认为即使通过了图灵测试,机器也不见得有了智能。但或多或少有点牵强,始终也没有把图灵测试彻底反驳掉。但“中文屋悖论”却可能在技术发展之路上告诉了我们另一件事:我们所有的技术探索与研究,可能都是在完善那个中英文翻译程序,从来不是去教机器真的智能。

通用人工智能和强人工智能的界限

这里要来认识两个大家经常听到,但有可能混淆的概念——通用人工智能与强人工智能。

所谓通用人工智能(Artificial General Intelligence,AGI),是指在不特别编码知识与应用区域的情况下,应对多种甚至泛化问题的人工智能技术。这个技术虽然冷门并遥远,但其实也有不少学术机构与企业在做,一般被认为是人工智能技术的未来发展方向。

而强人工智能(Strong Artificial Intelligence)则是约翰·希尔勒在提出“中文屋实验”时设定的人工智能级别。这个等级的人工智能,不仅要具备人类的某些能力,还要有知觉、有自我意识,可以独立思考并解决问题。

虽然两个概念似乎都对应着人工智能解决问题的能力,但我们可以把前者想象为无所不能的计算机,后者则类似穿着钢铁侠战甲的人类。

“中文屋悖论”表达的思想,是人类研究的方向根本无法逼近强人工智能。即使能够满足人类各种需求的通用人工智能,也与自我意识觉醒的强人工智能之间不存在递进关系。

现实中的技术发展好像也确实是这样的。

在通用人工智能领域,人类已经提出了一些设想与架构模型。其中最著名的应该是澳大利亚国立大学学者马库斯赫特(Marcus Hutter)在2000年提出的AIXI。这个计算模型据说可以涵盖各种算法与技术,逼近通用人工智能的本质……当然,这个算法的复杂程度奇高,根本无法执行,所以仅仅是个设想。

而OpenAI和DeepMind这样的企业在近两年则都开始了具体层面的AGI研究,其中DeepMind被认为是继承AIXI的先锋军。

从DeepMind进行的通用人工智能性质的研发与实验中,我们可以看到其“通用性”主要集中在四个层面:1智能体应对复杂环境、2陌生环境处理、3时间变量应对、4多个信息源同时处理任务。

而这些技术都指向同一个方向,就是智能体与外界的交互——也许可以理解为AI与这个世界的翻译程序吧?

换言之,人类所做的仅仅是给“那个人”更好的翻译程序,而非教他中文(当然也没法教)。所以通用智能这种已经很玄的东西,依旧与强人工智能保持着清晰的界限。

绝望的强AI:能力和意识,也许南辕北辙

让我们把“中文屋实验”极限化一点,把整个房间放在一个人的大脑里。

假如一个人记住了所有翻译程序,看到任何中文他都能调用回忆,能写出相应的回答,那么他是不是就懂中文了呢?对于人类来说,可能他自然而然的就已经理解中文了。但对机器来说,即使这个过程速度再快、反应再灵敏,他也依旧没有理解任何一个汉字。

确切的说,是这个人(智能体),获得的是使用中文的能力,但他对中文没有意识。

能力与意识的区别,是我们在想象未来超级智能时最容易混淆的问题。但从现实的逻辑推理,就会发现这二者差别很大,而且近乎没有关联。

知识表示、机器学习、NLP等等人工智能技术,都是在不断强化人工智能模仿人类能力的能力(这句话有点绕),但让人工智能具备模仿人类意识的能力,直到现在依旧是一片空白。

没有因,自然无果。“中文房间”理论讲述的,就是按照人类遵循的技术轨迹,智能体崛起意识这个命题将永远缺乏基础条件。

如果这个结论成立,那么对于强人工智能来说可谓是非常绝望的。他们只能继续在时空的长河里沉睡在人类的幻想中,一如远古的神祇,一如都市传说里的鬼怪。

想一想,还是觉得蛮无趣的咧。

脑极体

1201篇资讯

粉丝

本文系作者 脑极体 授权钛媒体发表,并经钛媒体编辑,转载请注明出处、作者和本文链接
本内容来源于钛媒体钛度号,文章内容仅供参考、交流、学习,不构成投资建议。
想和千万钛媒体用户分享你的新奇观点和发现,点击这里投稿 。创业或融资寻求报道,点击这里

敬原创,有钛度,得赞赏

赞赏支持
发表评论
0 / 300

根据《网络安全法》实名制要求,请绑定手机号后发表评论

登录后输入评论内容
  • 在人类年自己的意识都没有弄清楚之前,说ai会不会 产生意识毫无意义

    回复 2017.09.05 · via pc
  • 我总觉得人工智能就像系着绳子采悬崖上的鲜花,不确定在绳子没断之前就采到了,还是还没够到鲜花绳子就断了。

    回复 2017.09.06 · via pc
  • 文章意思是说现今的人工智能发展方向为使用方向,主要目的是在于让“它”能够代替人类完成一些简单的工作,而所说的强人工智能也就是不但要学习如何去完成,而且要理解乃至于自主完成安排、学习、总结、认识的过程?我觉得目前来说强人工智能的出现是很漫长的一件事,很基本的一件事,模拟计算规模与生物系统相比仍是草履虫和人类的差别。不过很久很久以后,伴随着模拟计算性能的提高,或许可能会出现你所说的强人工智能,但是是机器吞噬人类还是人类吞噬机器仍然不知道。。总觉得将来总有一天人类会变成两个脑子的人。。。一个电子的。一个生物的。毕竟除了伦理上的问题和生理上的损害,其他都可能是会变强吧。

    回复 2017.09.05 · via pc
  • 作者不理解智能,也就不理解人工智能

    回复 2017.09.05 · via pc
  • 意识高于能力

    回复 2017.09.07 · via pc

快报

更多
310
5
278

扫描下载App