第一时间get全球最新科技知识与数据
下载钛媒体客户端

扫描下载App

“伪人工智能”三大特征新鲜出炉,欢迎对号入座阅读

摘要: 不管是把装有简单预设程序的音箱/机器人称为人工智能,还是把自动化设备偷换概念称之为人工智能,这些伪创新的炒作,只会对人工智能的发展产生越来越大的伤害。

图片来源:视觉中国

图片来源:视觉中国

不可否认,人工智能现在已成为技术发展的主流,并且在用前所未有的力量影响着人们的生活。通过将更多更好的数据、软件、应用与这项技术结合,人工智能在社会的多个领域里得以实现。

同时,由于技术的不断发展,人工智能研究员几十年来一直在努力解决的问题也正在获得相应的解决方案。

然而,是风口就会有“虚火”和“伪概念”的出现,人工智能也不会例外:在资本大量涌入,巨头纷纷入局的情况下,似乎一夜之间,人工智能相关的企业和产品铺天盖地袭来。

热潮之下,既有技术的突飞猛进,也夹杂着概念下的虚假繁荣。

虽然人工智能的口号喊的响亮,但实际上建立一项由人工智能驱动的服务很难。究竟困难到什么程度呢?一些初创公司在实践中发现,让人类像机器一样工作,要比让机器像人一样工作容易的多,也便宜的多。

“事实上,用人工来完成一份工作可以让企业跳过大量的技术和业务开发面临的挑战。很明显,这不会扩展一个公司的规模,但是却允许一个企业在初期的时候跳过最困难的部分,并获得一定的用户基础,“ReadMe首席执行官Gregory Koberger说道。

他表示,自己接连不断遇到了很多伪人工智能(Pseudo AI)。在他看来,这正是人与人工智能关系的原型。

伪人工智能特征一:人工代替AI工作


就Koberger对人与人工智能关系的表述而言,最典型的一个案例便是本周早些时候,谷歌Gmail被曝光的任由开发者阅读用户邮件一事。

根据《华尔街日报》的报道,谷歌允许数百家外部软件开发商,通过扫描数百万用户的邮件内容来投放更加精准的广告;而这些开发商可以训练计算机,甚至让员工来阅读用户的Gmail邮件,对此谷歌却疏于管理。

此外,还有总部位于圣何塞的Edison Software,该公司的人工智能工程师通过浏览数百名用户的个人电子邮件来改进“智能回复”功能。当然,前提是该公司并没有在其隐私政策中提到过会对用户的电子邮件进行人工审核。

如果对人类取代人工智能进行工作这种做法进行深究的话,早在2008年就已经有苗头了。当时一家旨在将语音邮件转换为成本信息的公司Spinvox,被指控在海外呼叫中心通过人工而不是机器来完成相应的工作。

随后,2016年,彭博社也报道过关于人类会每天工作12小时,以代替聊天机器人为用户进行服务安排的困境。当时,有相关人员表示,这项工作会让人头脑麻木,以至于他们都希望自己能够被机器人取代。

紧接着,2017年,智能商业解决方案应用Expensify承认,该公司一直在人工转录被其称为使用了“智能扫描技术”处理的部分收据。这些收据的扫描结果被发布到亚马逊的Mechanical Turk众包劳动工具上,而低薪的员工对其进行阅读和转录。

即使是在人工智能领域投入了巨资的Facebook,也会依赖人类充当其名为Messenger的虚拟助手。

伪人工智能特征二:AI成果造假,获取投资


在某些情况下,人类会被用于训练人工智能系统并提高其准确性。一家名为Scale的公司的业务便是提供人类劳动力,为自动驾驶汽车和工智能系统提供培训数据。

比如,“Scalers”会审查摄像头或传感器的数据,并对汽车、行人等进行标签处理,之后通过足够的人工校对,AI才开始学习识别这些物体本身。

在一些情况下,有些公司会一直用这种方式假装下去,告诉投资者和用户他们已经开发了可扩展的AI技术,同时继续秘密地依赖人类智能。

伪人工智能特征三:把预设程序称为人工智能


如今,市面上出现的大多数产品都被冠上了“智能”的标签,比如,对话式儿童智能机器人,实际上多数是预设程序的玩具;包学包会包就业的AI培训,实际上就是编程培训;神乎其神的AI炒股软件,也不过是用了量化的方法选股而已。对此,阿里巴巴前CEO卫哲甚至论断,目前伪人工智能比例可能高达90%或者99%。

简单来说,这些产品不过是“穿了个马甲”,流行什么就贴什么标签,以为贴上了人工智能的标签,就真的成了人工智能。目前对于人工智能业界还没有准确的定义,接受度较广的就是人工智能需要具有自主学习的能力,因此有产品钻这个空子,也不可避免。但这也会扰乱市场,对技术的发展蒙上一层阴影。

用户对人工智能的态度——透明化


聊天机器人Woebot的创始人兼心理学家Alison Darcy表示,“很多时候,人工智能的背后是人工而不是算法。建立一个良好的人工智能系统需要‘大量的数据’,有时投资者在进行投资之前会想知道该领域是否有足够的服务需求。”

但她表示,这种方法不适合像Woebot这样的心理支持服务。“作为心理学家,我们要遵循道德准则,不欺骗是非常明显的道德原则之一。“

不过有研究表明,在人们的意识里,面对机器比面对人类医生,会更容易让他们透露自己的心声。来自南加州大学的一个团队用名为Ellie的虚拟治疗师进行了测试。他们发现,患有创伤后应激障碍的退伍军人在知道Ellie是一个AI系统的时候会更容易倾诉自己的症状。

但是有些人认为,公司应该始终对自己的服务运营方式保持透明。


“我不喜欢这样。这对我来说是不诚实,是欺骗。从我的角度出发,这些也都不是我想从正在使用的服务中获得的东西。”一些来自假装提供人工智能服务,实际上却雇佣人类进行工作的员工表示,

“而在工人方面,感觉我们被推到了幕后。我不喜欢一家公司使用我的劳动力,转而向客户撒谎,不告诉他们真正发生的事情。”


这种道德上的窘境也在人工智能系统方面引发了人们的思考。以Google Duplex为例,一个机器人助手,可以与人类展开让人毛骨悚然的逼真对话,完成餐厅或美发沙龙的预定,这对人类来说,不是一种很好的感觉。

Darcy表示,“在他们的演示版本中,我感觉被欺骗了。”在用户的反馈下,谷歌终究还是改变了Duplex的对话方式,在讲话前会先表明自己的身份。尽管如此,人们还是觉得有些介意,比如,助手的声音如果模拟了一些名人或政治家再打电话,会发生什么呢?

在小智君看来,随着人工智能的发展,多数人已经对人工智能产生了恐惧,因此,在AI技术的应用缺乏透明度的情况下,这项技术并不会真正地方便人们的生活。

此外,不管是把装有简单预设程序的音箱/机器人称为人工智能,还是把自动化设备偷换概念称之为人工智能,这些伪创新的炒作,只会对人工智能的发展产生越来越大的伤害。

人工智能需要的是清醒客观的判断以及扎扎实实的努力。

所以,就目前而言,对于人工智能的发展,建立一个更务实的发展环境才是重中之重。

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App

本文系作者 人工智能观察 授权钛媒体发表,并经钛媒体编辑,转载请注明出处、作者和本文链接
分享到:

第一时间获取TMT行业新鲜资讯和深度商业分析,请在微信公众账号中搜索「钛媒体」或者「taimeiti」,或用手机扫描左方二维码,即可获得钛媒体每日精华内容推送和最优搜索体验,并参与编辑活动。

人工智能观察
人工智能观察

专注人工智能领域深度报道,传递最前沿AI应用的移动新媒体,每一次推送,都力图观察和记录这个AI时代。

评论(0

Oh! no

您是否确认要删除该条评论吗?

分享到微信朋友圈