为什么说人工智能想要取代人类还很遥远?

摘要: 人工智能会做很多事情,但我做的它不一定会,或者它做这些常常出问题,需要我处理,又或者是我需要训练它学习新任务。这三个阶段再进一步,就是人类能放心将任务完全交给它的时候。

人工智能诞生有61年,但它从高冷科技到被吃瓜群众围观也就是这几年的事。我们可能一直在媒体上看到人工智能做各种各样的事,文可遣词造句写文章,武能扛枪指挥上战场。所以总有一种声音在告诉我们:人工智能总有一天什么都能做,到时候你就是它寄生的一部分,甚至被它控制。

但近期的一系列事件在告诉我们一个相反的结论:谈论人工智能取代人类还为时尚早,至少有一些问题需要解决。

人工智能还不够成熟

人工智能有一个最基本的优点,就是能在长时间的工作中保持中立和准确性,这也是很多公司开发人工智能的一个主要原因。比如说,IBM Watson认知计算平台用于医疗的效果很不错。但不是所有的人工智能都那么靠谱,比如近期用于Facebook消息流的人工智能就捅了篓子。

Facebook的趋势新闻版块一直被人指责有严重的政治偏向,后来Facebook炒掉了整个合同工编辑,原来的编辑工作完全由人工智能代替,但没过几天,人工智能就闯了大祸:它给趋势新闻版块推送了一条假新闻,宣称福克斯电视台解雇了一名著名主持人,并且称该主持人是“叛徒”,在Facebook修正错误之前,可能有数百万用户看到了假新闻。

Facebook推送的假新闻

Facebook推送的假新闻

而后续更令人惊讶。Facebook为了人工智能炒掉了整个人类新闻编辑团队,在假新闻事件发生之后,有三名原新闻编辑站出来宣称,在他们被解雇之前,Facebook力推的新闻算法其实并不完善,甚至有编辑爆料,原来他们审核人工智能算法推荐的新闻时,发现算法推荐的50篇文章一般只有20篇才是真新闻,而且这20篇新闻来源也不够权威。

Facebook“趋势话题”(Trending)版块

Facebook“趋势话题”(Trending)版块

这个事例中,人工智能可能没有人类编辑对新闻事件的好恶偏向,但新闻本身的准确性大大降低,直接影响了新闻推荐的质量。编辑们表示,除了工程师不断提高算法,编辑对于人工智能系统的训练也是不可或缺的,但这里的人工智能没有经过充分学习,就被Facebook出于新闻中立性的考虑被急急忙忙推出来见人了。

后来的事情更是严重:Facebook推出人工智能新闻算法的时候正好撞上美国大选,然后争议不断的特朗普当选总统,各种对结果不满的人开始指责Facebook:都是你们消息流上的假新闻帮特朗普胜选!这种说法可能有甩锅的嫌疑,但Facebook上流行各种关于大选的假新闻倒是真的。

据说在欧洲一个叫“马其顿”的国家,一些青年靠建立假新闻网站、编假新闻来挣广告费,而传播假新闻最快的途径就是通过Facebook。现在,被骂的狗血喷头的Facebook开始采取各种措施打击假新闻,效果如何,还尚待时日证明。

这件事情告诉我们,人工智能完全成熟需要时间打磨。技术人员需要不断改善人工智能的算法;更重要的是,人工智能做到模仿人类思维必然有一个学习的过程,而绝大多数的学习过程是通过人类训练而进行的。

目前各大科技公司开发人工智能的时间还不够长,相应的系统学习也没有那么成熟,可以说是相当于几岁或者十几岁少儿的水平,让这样的系统承担成人才能做的工作,可能超出了目前系统的承担能力。

人工智能也会被欺骗

相比人工智能本身缺陷导致的错误,这一条目前还不太为人所注意,但仔细想想,黑客入侵系统对于人工智能是个显而易见的威胁。作为以各种算法为基础的系统,一定存在被黑客攻击的可能。

黑客目前可能最常用的攻击手段就是欺骗人工智能。近期的各种电信诈骗告诉我们人类本身也不是时刻都保持聪明,对于缺乏完全思维能力的人工智能更是如此。在这方面,黑客把欺骗手段可以玩出花样。

比如说,美国的研究人员可以通过生成的3D模型欺骗人脸识别系统。这些研究人员首先在社交网站上收集人脸照片,通过这些照片制作人脸3D模型,并加入面部表情或者眨眼之类的小动作,至于皱纹之类的面部细节可以伪造,这样生成的人脸3D模型在55%到85%的测试时间中可以骗过五分之四的人脸识别系统。

研究人员通过照片制作人脸3D模型过程

研究人员通过照片制作人脸3D模型过程

除了欺骗人脸识别系统,黑客还有可能攻击自动驾驶系统。比如曾经就有黑客利用特斯拉Autopilot系统漏洞,成功“催眠”特斯拉。

研究人员使用“噪音进击”方式干扰特斯拉

研究人员使用“噪音进击”方式干扰特斯拉

如果这个系统本身就不够成熟,那就搞笑了。曾经有记者测试一个刚起步的人工智能投资机器人,结果这个机器人为记者虚构的创业项目要扔1400万美元。

人工智能要给记者虚构的创业公司“投资”1400万美元

人工智能要给记者虚构的创业公司“投资”1400万美元

所以说,目前再厉害的人工智能,还是有被欺骗的可能,至少我们不能将它作为唯一的依靠来判断事情或者做决定。

人工智能还不能明辨是非

谈到“明辨是非”,对于目前的人工智能来说可能要求太高,毕竟连人类都不能做到永远明辨是非。有人甚至害怕,如果让人工智能明辨是非,就意味着人工智能有了自己的判断和好恶,这样它就不能完全听人类的话,甚至有背叛人类的可能。

其实没那么玄。之所以让人工智能学会明辨是非,是让它能够判断出人类让它做的事情本身是对的还是错的。

一个不会判断是非的人工智能,可能会变成某个居心不良的人的杀人工具,会无条件执行恶人的命令;即使问题没那么严重,也有可能是这么一种情况:一个记性不好的老人让人工智能机器人给花浇水,但实际上机器人刚刚給花浇过水了。

电影《终结者》中的机器人

电影《终结者》中的机器人

让人工智能判断命令背后的风险,并且避免风险,是人工智能真正变成“智能”的重要一步。目前其实有人注意到这一点,他们试图开发能让人工智能做出简单判断的控制技术,还有人提出要给人工智能教道德和法律。

但目前,相关的技术还在开发中,至于教授道德法律,科技巨头为此专门召开会议,试图制定人工智能的道德规则;而欧洲议会也推进关于自动驾驶和人工智能的相关法案,明确发生相关事故后的责任,并且要求人工智能机器人要加装“自毁按钮”。但这些努力目前都只是个开始。

美国五大科技巨头开会制定人工智能道德标准

美国五大科技巨头开会制定人工智能道德标准

美国科技杂志《连线》前主编凯文·凯利曾经在他的书中写到,人类对人工智能的心态有7个阶段。目前我们对人工智能的心态可能是这样的:

人工智能会做很多事情,但我做的它不一定会,或者它做这些常常出问题,需要我处理,又或者是我需要训练它学习新任务。这三个阶段再进一步,就是人类能放心将任务完全交给它的时候。

在笔者看来,跨越前文所述的三个问题,人工智能才能完全承担人类给它的工作。

(文章来自新浪科技,原标题为《天天说要取代人类,为什么人工智能还是做不到?》,文/姜轶群)

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App

本文系作者 新浪科技 授权钛媒体发表,并经钛媒体编辑,转载请注明出处、作者和本文链接
分享到:

第一时间获取TMT行业新鲜资讯和深度商业分析,请在微信公众账号中搜索「钛媒体」或者「taimeiti」,或用手机扫描左方二维码,即可获得钛媒体每日精华内容推送和最优搜索体验,并参与编辑活动。

新浪科技
新浪科技

评论(9

  • 追本溯源 追本溯源 2017-02-01 18:30 via android

    个人觉得只能只能用于服务于某些非情感行业,例如:计算、程序处理。
    需要认为情感判断的还是不用机器人的好。

    0
    0
    回复
  • 把酒明月有几时 把酒明月有几时 2017-01-29 18:28 via weibo

    第三次世界大战就是智能大脑之间的对决,武器只是游戏工具。

    0
    0
    回复
  • 一米阳光_Ann 一米阳光_Ann 2017-01-29 16:51 via weibo

    又回到鸡胸脯啦

    0
    0
    回复
  • Darren13 Darren13 2017-01-29 07:17 via iphone

    厉害

    0
    0
    回复
  • 修炼爱情的孤独小孩 修炼爱情的孤独小孩 2017-01-28 23:07 via iphone

    人工智能未来十年能不能取代人,这个问题不解决,会影响很大的投资误判与决策,如果路修好了,车还上不了生产线,到时就尴尬万分了。

    0
    0
    回复
  • zuand zuand 2017-01-28 17:39 via iphone

    现在的人工智能就是某些领域内的专家,想让它变成大师要走的路还很长。

    0
    0
    回复
  • 李科_无锡 李科_无锡 2017-01-28 15:00 via weibo

    这篇说的取代,是指某个行当完全不需要人了吧。但还有一种取代,是指某个行当在人工智能辅助下只需要留下极少数人就行了。这可就未必是遥不可及的了。

    1
    0
    回复
  • 刀锋锐利 刀锋锐利 2017-01-28 14:36 via weibo

    谁也取代不了谁,优势互补做到更好。

    0
    0
    回复
  • 第11建筑中队流浪犬次郎要有胸肌 第11建筑中队流浪犬次郎要有胸肌 2017-01-28 14:25 via weibo

    教会他自己添加新任务就可以了…只不过好坏都学…就危险了…就像国外被教坏的微软机器人…

    0
    0
    回复

Oh! no

您是否确认要删除该条评论吗?

分享到微信朋友圈