人类担忧强人工智能的危害,科学家却认为要实现还需跨越几十年寒冬

如果说AGI定义尚难,那就更别说要预测它的发展了。勒存和百度首席科学家吴恩达等人都认为不必在AGI的预测上浪费时间,因为目前人类要达到这个水平还远的很。人工智能还需要跨越一个几年甚至几十年的寒冬。

2015年初,一些研究者开始担心人工智能的安全,一切都变化飞快。

牛津大学人类未来研究院院长、哲学教授尼克·博斯特罗姆的新书《超级智能:方法、危险、策略》供不应求,生命未来研究所(FLI)在波多黎各举行了人工智能未来安全的讨论会议,两封关于人工智能和自动武器的信件公之于众,SpaceX和特斯拉的共同创始人埃隆·马斯克、宇宙学家斯蒂芬·霍金、微软公司创始人比尔·盖茨和苹果联合创始人史蒂夫·沃兹尼亚克等业界大咖都发表过关于人工智能威胁的言论,无数文章援引了他们的担忧。

马斯克通过FLI捐赠了1000万美元用于人工智能安全研究,莱弗休姆未来情报中心获得1500万美元用于研发智能的未来。还有最近成立不久的非营利组织OpenAI,花费10亿美元把人工智能领域最有思想的那群人聚到一起,想办法解决人工智能的安全问题。

总而言之,这是一个人工智能安全研究的丰收年。越来越多的科研人员和从业人员加入到人工智能安全研究领域中来,还有许多未知的惊喜等着我们去发现。

那么,我们到底在惧怕什么呢?

OpenAI的成立可以说是这个月的重磅消息,神经信息处理系统会议也在此时召开,吸引了一大批机器学习大牛莅临现场。英国伦敦帝国学院认知机器人教授穆雷·沙纳汉,英国伦敦帝国学院人工智能专家肖恩·莱格,百度首席科学家吴恩达,Facebook人工智能负责人雅安·勒存,IEEE前机器学习工程师汤姆·迪特里奇等研究机器学习和心理学的大佬们都对人工智能发表了自己的看法。

AGI值得我们担心吗?

Artificial General Intelligence(AGI)是指强人工智能,这是一种人类级别的人工智能,在各方面都能和人类比肩,人类能干的脑力活它都能干。不仅仅是当今人工智能所应对的局部、特定的问题,未来可能出现的复杂繁冗任务对它来说都不在话下,当前的人工智能需要人类进行编程,但不排除未来的某一天它可以自动编程。因此,AGI的定义其实也不太准确。

Facebook人工智能负责人雅安·勒存说道:“我不想谈论人工智能,因为我真的不知道它到底是什么意思。”

如果说AGI定义尚难,那就更别说要预测它的发展了。勒存和百度首席科学家吴恩达等人都认为不必在AGI的预测上浪费时间,因为目前人类要达到这个水平还远的很。人工智能还需要跨越一个几年甚至几十年的寒冬。吴恩达做了个比喻,人类对未来人工智能的担忧简直比得上对半人马座α星系的幻想(注:由于半人马座α星系统距离地球很近,许多科幻小说都“认为”这里存在发达的宇宙文明)。

勒存表示,我们真的无法得知拥有超常智慧的人工智能会是什么样子。“人工智能会发展成人类的智能吗?肯不会的。”勒存解释,人类智能不是我们想象中的那个样子,“我们是有本能的,会驱动一些人类去做坏事,但是人工智能却没有。”

然而,也有人并不认同勒存和吴恩达的观点。他们认为我们必须要提前做好应对准备。

谷歌DeepMind联合创始人肖恩·莱格认为,现在开始研究人工智能安全是绝对有益的,它帮助我们建立起一个框架,让研究人员在这个框架内朝着积极的方向去发展更聪明的人工智能。

“关于人工智能的安全,我认为有过分夸大和被忽略的方面。”莱格认为,我们应该深刻地讨论人工智能给社会带来的正负面影响。“当我们正处在发展的过渡期,我们应该负起责任,提前考虑技术、社会、法律等方面的问题,提前做好准备总比出现问题时再考虑好。”

纽约大学语言与音乐研究心理学家加里·马库斯补充道:“我们不仅需要为人工总体智能做准备,更要为人工智能做准备。现在已经出现了安全和风险问题了。”

吴恩达认为人工智能安全研究并不是一件坏事,“我很高兴能看到社会各界的人们参与到人工智能伦理研究中来,这确实是一个伟大的事业。”但吴恩达坚持认为不能花太多精力到人工智能安全研究上去。

人工智能影响经济?

尽管研究人员在会议上各执己见,但有一个问题却几乎赢得了所有人的赞同——人工智能可能危害就业市场。

埃里克·布吕诺尔夫松是《工业时代2:人工智能》的作者之一,他提出了人工智能可能会对经济产生一些影响。他说,我们的技术飞速进步,这是好的,但我们的技术、组织和机构并没有跟上,因此无法享受技术进步带来的福利。

吴恩达虽然不担心AGI的未来,但他却十分关注即将出现的经济问题。“我认为最大的挑战是失业。”

尽管当今人工智能发展得十分局限,但失业问题已经开始出现了。在世界各地,中低技工不断被机器人或软件所取代工作,并且取代率会不断上升。

勒存认为,蒸汽机的出现也导致了大规模的失业,现在世界也一样可以克服。但布吕诺尔夫松和吴恩达不同意这一观点,因为当今的技术进步更加快速。

“技术在不断地吞噬工作,也在不断地创造工作。”布吕诺尔夫松承认,但他也指出,要预测技术进步带来的影响十分困难,因为当前技术进步的速度是前所未有的快。

牛津大学人类未来研究院院长、哲学教授尼克·博斯特罗姆认为,把会思考的机器和工业革命蒸汽机的崛起做比较是不恰当的,因为它和人类崛起的过程更加相似。有朝一日,假若拥有超常智慧的人工智能真的被开发出来了,那人类的创造史也就到此结束了。

目前经济存在一个巨大问题,市场变化迅速,大多数人无法快速培养与之适应的新技能,失业保障金和技术培训可以解决部分问题。然而,失业带来的心理阴影仍然成了很多人克服不了的问题。这引起了专家们的注意。

博斯特罗姆教授却意外地乐观,他认为失业不是失去全世界,失业人员可以利用失业的时间来享受其他的爱好,填补错过的快乐时光。

不远的将来,人工智能即将出发新一轮失业浪潮,这要求各国领导人主动采取失业保障金等有效政策来应对。

何时展开人工智能安全研究?

理想状态下,技术只是一个工具,并没有好坏之分。它对人类的帮助和伤害取决于使用者。除非人工智能可以发展到有思考的能力,但这一说法并不准确,因为人工智能并不是人,但也不仅仅是一种工具。

伊恩·克尔是加拿大渥太华大学的伦理、法律研究主席,他在会议上谈到了人工智能的法律问题。人工智能的首要问题是:这是谁的责任?出现问题时谁来负责?另一方面,当人类和人工智能的建议出现对立时,该如何选择?要怎样证明选择的正确性?

2015年初,一些研究者开始担心人工智能的安全。现在,虽然大多数人还不担心,但他们都承认,提前考虑这些问题确实没有坏处。最大的分歧在于我们该于何时展开人工智能安全研究。

大多数业内人士都认为人工智能升级的过程是循序渐进的,而不是一些媒体口中一蹴而就的。现在已经出现了智能机器,完成任务的过程比人类更好更快,这一趋势会不断持续下去。

哈佛大学计算机科学教授菲纳利·多西·韦莱兹指出,至少现在,我们还可以控制我们的机器,如果出现了不理想的结果,我们可以重新编程。

但是,这会是长久之计吗?

【钛媒体作者介绍:本文由黑匣编译自Futureoflife,作者Ariel Conn】

本文系作者 黑匣 授权钛媒体发表,并经钛媒体编辑,转载请注明出处、作者和本文链接
本内容来源于钛媒体钛度号,文章内容仅供参考、交流、学习,不构成投资建议。
想和千万钛媒体用户分享你的新奇观点和发现,点击这里投稿 。创业或融资寻求报道,点击这里

敬原创,有钛度,得赞赏

赞赏支持
发表评论
0 / 300

根据《网络安全法》实名制要求,请绑定手机号后发表评论

登录后输入评论内容
  • AGI是属于未来的,也是服务与人类的。

    回复 2018.02.13 · via android
  • AI是如未来战士那样统治地球,还是如大白那样服务人类,这些都是未定之天。

    回复 2015.12.24 · via android

快报

更多

08:39

中金公司:将基准情形下海外中资股2024年盈利预测从4.5%小幅上调至5%

08:37

亚太主要股指低开低走,日经225指数跌幅扩大至2%

08:35

国台办:优化调整M503航线,对两岸同胞都有利

08:33

人人乐:公司股票简称4月22日起变更为“*ST人乐”,4月19日停牌一天

08:32

福泰制药公布其急性和神经性疼痛新药suzetrigine取得重要进展

08:29

上海公共交通乘车码、公交卡支持刷外币卡,涵盖地铁、公交、轮渡

08:28

波音在名古屋开设在日本首个研发中心

08:26

凯雷据悉寻求收购韩国激光美容设备制造商Jeisys

08:25

Netflix将停止公布订阅用户数量

08:23

SK海力士与台积电签署谅解备忘录,合作开发HBM4和下一代封装技术

08:21

福建地区空域实施优化调整,M503航线优化运行

08:19

国家金融监管总局:加快完善监管协同机制,以“全覆盖、无例外”助力消除监管空白和盲区

08:18

索尼据悉正与阿波罗全球管理公司谈判联合竞购派拉蒙

08:17

日本3月核心消费物价同比上涨2.6%

08:16

飞天茅台价格短期波动后,线下零售价已站稳2700元/瓶

08:16

微盟集团:建议购回于2026年到期的3亿美元零息有担保可转债

08:15

交易所下问询函,“铁公鸡”吉林高速要分红了

08:14

巴西国家钢铁公司:有关收购InterCement资产的讨论仍在进行中

08:13

上市银行担纲A股“分红大户”,六大行合计分红金额再创新高

08:08

超常规支持多场景突破,氢能产业迎来新一轮发展高峰

2

扫描下载App