第一时间get全球最新科技知识与数据
下载钛媒体客户端

扫描下载App

看重颜值的今天,如何避免AI成为带偏见的“相面术”

摘要: 时刻审视和调整自己应用AI技术的立场与动机,避免AI沦为反映、放大乃至制造偏见的新场域

相面术,无疑是一门古老而又生命力旺盛的学问。

说它古老,是因为其历史悠久、源远流长。中国相面术的起源,最早可以上溯至氏族社会时期,到了春秋战国时期就已十分流行,《麻衣神相》是相面术的集大成之作,拥有深广的群众基础。大家耳熟能详的文学作品中经常能看到相面术的身影:大富大贵之人一般都相貌不凡,如《三国演义》中刘备的“双耳垂肩、双手过膝”、关羽的“丹凤眼、卧蚕眉”等;而奸恶之人也都天生异相,如《史记》里秦始皇的“蜂准、长目、挚鸟膺、豺声”。简而言之,相面术就是为“那个人一瞅就不是啥好东西”这句话所准备的理论基础。

说它生命力旺盛,是因为相面术不但能深深地植根于人类“颜控”的本性,还能紧随时代发展的步伐,调整自身形态,最终在新的时代成功站稳脚跟。从古代游街串巷的算命先生,到曾国藩的《冰鉴》,再到龙勃罗梭(Cesare Lombroso, 1836-1909)的犯罪人类学的提出,相面术总能“以无厚入有间”,找到自己的容身之处。在AI日益发挥着如同工业时代“蒸汽机”一样作用的今天,相面术似乎也嗅到了自己“寄生”的新方向。

去年秋天,来自斯坦福大学的Michal Kosinski和Yilun Wang合作发表了一篇题为《深度神经网络可通过面部图像确定个体性取向》(Deep Neural Networks can Detect Sexual Orientation from Faces)的论文,一石激起千层浪,引发了舆论的大哗。二人从美国约会网站及平台的公开信息中采集了14776位用户的35326张面部照片,并用深度神经网络(DNN)密集提取并量化了他们的脸型、嘴型、鼻形以及面部毛发等特征,接着他们引入VGG-Face DNN模型,通过面部表情、光线、图像属性等因素标记图像中的人脸,随后二人用奇异值分解(SVD)等手段对图像分类,区分出同性恋与非同性恋照片。

经过一系列训练,该算法识别男女性取向的准确率分别达到了81%和71%;倘若受测个体的照片有五篇以上的话,这个数字将分别提高至91%和83%。二人还用数千张图片分别合成了两组照片,分别显示了男女异性恋和同性恋较具代表性的样态,两相比对,同性恋人群的面部轮廓和五官位置形状确实有细微的差别。

这项研究成果被有些媒体称之为“AI Gaydar”,它一经发表,就引发了LGBTQ群体的强烈不满,这一群体中两个较有代表性的组织Human Rights Campaign (HRC)和GLAAD直接将此研究斥之为“伪科学”(Junk Science),并认为这一技术手段的广泛应用不但会严重侵害个人隐私权,而是还将会是对本就脆弱敏感的性少数人群的新的“系统化虐待”(Systematized Abuse)。更令人不安的是,该文的作者之一Michal Kosinski还对《卫报》的记者表示,这一算法在未来还可应用到判定受测者的智商、政治倾向以及犯罪几率等领域。

事实上,早就有科研团队在Kosinski提及的几个领域中取得了研究成果。来自上海交通大学的两位研究者Xiaolin Wu(武筱林)和Xi Zhang(张熙)于2016年的11月份就在arXiv上提交了一篇题为《基于面部图像的自动犯罪概率推断》(Automated Inference on Criminality using Face Images)的论文,二人通过视觉识别和机器学习技术,检测了1856张中国成年男子的照片,其中近一半照片都来自已经定罪的罪犯。

实验结果表明,这一算法可以以90%左右的正确率识别出罪犯和非罪犯;同时,他们还发现罪犯和非罪犯在内眼角间距、上唇曲率和鼻唇角度这三个测度上存在着较显著的差异,并且罪犯面孔特征的差异要大于守法公民。这篇论文的有些结论与“麻衣相法”的部分内容不谋而合,而论文作者也将陈抟所撰写的《神相全编》(陕西师范大学出版社,2010)列入到了自己的参考文献当中。

姑且不论上述两项研究的样本择取(数量、范围、标准)是否客观,也不论研究者们设计实验的初衷(前者意欲提醒人们注意个人信息安全,后者试图反对所谓的“相由心生”)是否合理,这样的研究在逻辑上就存有很大的漏洞:“同性恋”、“犯罪”的成因由多个变量决定,在研究中研究者却将“相”或“外貌”作为了唯一变量,而这唯一的变量其实是“天生”的,换言之,就是“不变”的;亦即,作为不变的“变量”的“相”与诸如“同性恋”、“犯罪”之间是无法建立起因果关系的。基于这点,我们可以大致断定,这类研究不过是形形色色“相面术”披着AI的外衣在当代的又一次“借尸还魂”罢了。

更令人担忧的是,由于AI的加持,这样研究成果一旦从实验室应用到实际生活场景当中,所产生的负面影响将会超出以往所有的“相面术”:由于AI处理数据的超强能力,这些成果的负面影响极有可能波及到社会中的大多数人;倘若这些成果一旦堂而皇之地进入到极权政体或同性恋非法的国家的话,“相面”借由技术这一貌似“客观”、“科学”的外衣,将在严重侵害少数族群的正当权益的同时,制造出一个人人自危的社会环境,无限放大、扩散本已存在于人类社会的各种偏见、歧视,最终导致灾难性的后果。纳粹的“雅利安种族优越论”殷鉴未远,从事科学研究的工作者们对此需要慎之又慎。

纳粹科学家正在做容貌测量

这就引出了本文想要讨论的主题:AI与偏见的关系。关于这点,笔者认为有必要澄清以下两方面:

(一)AI作为工具,映射的是人类本就存有的偏见、歧视。有不少媒体使用了“人工智能存有偏见”或“人工智能产生歧视”这样的词组搭配,似乎“人工智能”是生产偏见、歧视的主体。其实,AI的定语是“人工”,它只是人类的工具,换言之,只不过人类偏见、歧视和刻板印象的新的载体。正如巴斯大学的Joanna Bryson所说的那样:“很多人都认为是AI存在着偏见,不,这正表明是我们有偏见,AI 正在有学有样。”谷歌认为AI之所以出现偏见,源自于实施算法过程中“互动偏差”、“潜在偏差”以及“选择偏差”。其实,即便没有这些操作步骤中的偏差,AI 仍将充满偏见,因为人类社会和文化本身由无数偏见组成。

(二)AI作为工具,还将大大强化人类社会中的偏见、歧视。数次技术革命给人类社会带来的巨大改变,这使得我们的文化对于科学技术拥有了一种盲目的乐观和崇拜,“数字”、“科学”、“实验”这些词几乎等同于“真理”、“正确”,这种“唯科学主义”很容易忽略掉技术本身的“主观性”——AI看相摸骨正凭借这点趁虚而入。这次人工智能浪潮对于社会生产力无疑具有巨大赋能潜力,这同时意味着倘若偏见、歧视混入其中的话,AI将为人类带来更隐蔽、更深广的破坏力度。因此,人工智能领域不仅需要积极拥抱新技术的乐观主义者,还能接纳那些忧心忡忡的卢德主义者们。

微软AI聊天机器人Tay上线后,很快沦为人性阴暗面的镜子                                

那么,在充满偏见的社会语境中,应该如何以正确方式地打开AI呢?

首先,不要人为地用AI制造出更多的偏见。最近, 据Futurism.com报道,来自美国的一家新闻媒体平台Knowhere试图用AI技术重写新闻报道,以祛除语言文字中的偏见性因素。在其官网的自我介绍中,他们声称自己家的新闻报道是“世界上最客观的新闻”(The World’s  Most Unbiased News),其重写新闻的大致流程如下:使用AI搜集互联网上围绕某一主题的所有新闻,不管这些内容是中立、左翼倾向或右翼倾向的;AI根据这些资料重写一篇中立的新闻报道,这篇报道在涵盖基本的事实和数据的基础上,还小心翼翼地移除了任何可能引发偏见的词汇;除此之外,AI 还将分别重新写出左倾、右倾的新闻报道,以供有兴趣的读者阅读;最后,AI针对同一主题重写的这三篇文章都将经过专业新闻编辑的审阅、修改及核定,才会刊发在其网站上。

对比该网站关于同一事件所使用的三个版本的新闻标题是非常有意思的,以朝美会谈为例,中立报道的标题是“总统川普同意与朝鲜领导人金正恩进行历史性会晤”,左倾报道的标题是“感谢川普,朝鲜电影宣传成真啦”,右倾报道的标题是“朝鲜是川普政策的最终考验”。

这种模式乍看之下十分新鲜,但是经不起太多琢磨:谁来决定“中立”的标准?怎么确保决定标准者是完全中立的?AI在筛选、重组新闻的过程中是否能够彻底贯彻人为设立的中立标准?或者更进一步,将新闻的阅读人群分为Left、Impartial、Right本身是否也是某种意义上的“偏见”?因此,Knowhere的出发点是减少偏见的存在,而最终的实际效果反而是固化了它们——这点和斯坦福大学、上海交大的两项研究非常类似,都犯了“带着偏见,然后再用AI来验证/强化自己的偏见”的错误。

其次,利用AI去正视、理解以及研究人类自身的偏见。去年发表的一篇名为《基于词语嵌入技术量化百年间性别和种族成见》(Word Embeddings Quantify 100 Years of Gender and Ethnic Stereotypes)的论文就为我们做了很好地示范。研究者将AI技术与词语嵌入结合在一起,分析了有近2亿词汇的1910-1990年之间英语世界出版的报纸、杂志和书籍,从中提取了与性别、种族有关的形容性词汇,并对其统计、汇总、排列,找出了许多发人深思的现象。

比方说,研究人员发现,过去百年间越来越多的有关工作能力的词汇与女性关联起来,如 resourceful(机敏的)、Clever(聪明的) 等,也有一些词汇一直被施之于女性,如alluring(迷人的)、homely(相貌平平的) 等。又如,1910年形容亚裔的大多是 barbaric(野蛮的)、greedy(贪婪的)这样的负面词汇,而到了1990年情况虽然有所改善,有了像fixed(坚定的)、active(活跃的)等词汇与之联系,但是施诸他们最多的仍是haughty(高傲的)、dissolute(放荡的)这样的词汇。

该项研究使用AI这把利器,大量分析了人类过去所产生的文本,以精确、高效的方式揭示出我们社会文化中潜藏着的不易为人察觉的偏见、歧视和刻板印象,要远远地优于过往那种印象式的、或样本数量较少的社会学研究成果。这一研究同样来自斯坦福大学,与Michal Kosinski和Yilun Wang的那个研究相比,格局、立意孰高孰低,无须多言,一目了然。

所谓,知乃行之始。我们人类应该借助AI的优势,重新检视自身文化中或隐或现存在着的偏见、歧视和刻板印象,然后带着这种清醒的认知和逐渐形成的共识,时刻审视和调整自己应用AI技术的立场与动机,避免AI沦为反映、放大乃至制造偏见的新场域,最终,让这一技术成为我们期待着的那个美好的样子。

对了,关于形形色色的“相术”和上述这些道理,几千年前的荀子早在《非相》篇里说过了:

“相形不如论心,论心不如择术”。

更多精彩内容,关注钛媒体微信号(ID:taimeiti),或者下载钛媒体App

本文系作者 脑极体 授权钛媒体发表,并经钛媒体编辑,转载请注明出处、作者和本文链接
分享到:

第一时间获取TMT行业新鲜资讯和深度商业分析,请在微信公众账号中搜索「钛媒体」或者「taimeiti」,或用手机扫描左方二维码,即可获得钛媒体每日精华内容推送和最优搜索体验,并参与编辑活动。

脑极体
脑极体

写让你脑洞大开且能看懂的人工智能、流媒体、海外科技

评论(0

Oh! no

您是否确认要删除该条评论吗?

分享到微信朋友圈