为了把 Deepfake 关进笼子,各大公司都拼了

Google Colab 终于宣布禁止deepfake项目。

图片来源@视觉中国

图片来源@视觉中国

钛媒体注:本文来源于微信公众号硅星人(ID:guixingren123),作者 | 杜晨,编辑 | Vicky Xiao,钛媒体经授权发布。  

曾几何时,deepfake 在互联网上格外猖獗,新闻和成人类内容成为了“换脸”的重灾区。

由于受众广泛,市面上有不少现成的 deepfake 算法,供用户使用,如 DeepFaceLab  (DFL) 和 FaceSwap。并且,由于深度学习技术的普及,也有一些低成本甚至免费的在线工具,可以训练这些算法,从而让好事之徒达到其目的。

常用的工具之一就是谷歌的 Colab,一个免费的托管式 Jupyter 笔记本服务。简单来说,用户可以在 Colab 的网页界面上运行复杂的代码,“白用l”谷歌的 GPU 集群,从而训练那些依赖高性能硬件的深度学习项目。

不过就在本月,谷歌终于对 colab 在线训练 deepfake 痛下杀手。

前不久,DFL-Colab 项目的开发者 chervonij 发现,谷歌本月中下旬将 deepfake  加入到了 Colab 的禁止项目列表当中:

图片来源@谷歌

chervonij 还表示,他最近尝试用 Colab 运行自己的代码的时候,遇到了如下的提示:

“您正在执行被禁止的代码,这将有可能影响您在未来使用 Colab 的能力。请查阅FAQ页面下专门列出的禁止行为。”

图片来源@DFL Discord 频道

然而这个弹出提示只是做出警告,并没有完全禁止,用户仍然可以继续执行代码 (continue anyway)。

有用户发现,这次谷歌的行动应该是主要针对 DFL 算法的,考虑到 DFL 是目前网络上 deepfake 行为最常采用的算法。与此同时,另一个没那么流行,的 deepfake 算法 FaceSwap 就比较幸运,仍然可以在 Colab 上运行且不会弹出提示。

FaceSwap 联合开发者 Matt Tora 接受 Unite.ai 采访时表示,自己并不认为谷歌此举是出于道德目的:

“Colab 是一个偏向 AI 教育和研究方向的工具。用它来进行规模化的 deepfake 项目的训练,和 Colab 的初衷背道而驰。”

他还补充表示,自己的 FaceSwap 项目的重要目的就是通过 deepfake 来教育用户关于 AI 和深度学习模型的运行原理,言外之意可能这才是 FaceSwap 没有被 Colab 针对的理由。

“出于保护计算资源,让真正需要的用户能够获取这些资源的目的,我理解谷歌的这一举动。”

Colab 未来是否将会完全禁止 deepfake 类项目的执行?对于不听劝的用户会有怎样的惩罚?目前谷歌并未对此次修改作出回应,这些问题也暂时没有答案。

不过我们可以确定的是,谷歌肯定是不希望 Colab 这样一个出于公益目的,提供免费训练资源的平台,被 deepfake 开发者滥用。

Google Research 将 Colab 免费开放给广大用户,目的是降低深度学习训练的硬件成本门槛,甚至让几乎没有编程知识背景的用户也能轻松上手——也即所谓的 AI 普及化 (democratization of AI)。

由于区块链行业的爆发增长,以及疫情的次生影响,当今全球芯片(特别是 GPU) 很大程度上仍然处于断供状态。所以如果是为了节约资源而禁用 Colab 运行 deepfake 项目,确实可以理解。

不过除了 deepfake 之外,Colab 禁止的其它行为当中也的确包括大众认知的恶意行为,比如运行黑客攻击、暴力破解密码等。

deepfake 使用门槛变高?

在过去相当长一段时间里,对于初入门和中等水平的 deepfake 视频创作者来说,想要实现一般可接受画质(480p或720p以上)的内容输出,自己却没有足够的硬件配置的话,那么 Colab 几乎是唯一的正确选择。

毕竟 Colab 界面简单,上手轻松,训练性能达到可以接受的水平,而且还免费,没有理由不用。前面提到的一些 deepfake 算法项目也都针对 Colab 提供了代码支持。

要讨论 deepfake,很难避开新闻换脸视频和成人换脸内容。硅星人发现,DFL 主项目页面直接把新闻视频换脸作为主要使用场景之一,并且页面中引导的一些用户社群也都默许明星或私人复仇式 (revenge porn) 的换脸成人内容,使得此类内容大量存在。

现如今谷歌决定禁止 deepfake 类项目在 Colab 上运行,势必将对私人的 deepfake 内容制作造成不小的打击。

因为这意味着那些初级和中级 deepfake 制作者将失去一个最重要的免费工具,让他们继续制作此类内容的成本显著提高。

不过据领域内一些内幕人士表示,那些最顶级的,将 deepfake 当作一门生意的专业制作者,已经基本实现了完全“自主生产”。

这群人通过非法销售及会员募捐等方式,赚到了不少钱,可以投资更加高级的设备。现在他们可以制作分辨率、清晰度和脸部还原度更高的 deepfake 视频,从而不用依赖 Colab 以及云计算等在线服务,就能实现稳定生产和营收。

举个例子:想要实现2k甚至4k分辨率和60fps的帧率,并且单片单次渲染用时在可以接受的范围(比如几天)的话,需要一个庞大的渲染农场,至少10台电脑,每台两张支持 SLI 技术的英伟达 RTX 高端显卡,以及上百GB的内存。这样下来仅单台的购置成本就已经相当高了,更别提还要算上运转时的电费(渲染、冷却等),可以说是一笔相当大的投资。

很遗憾,对于这群人来说,谷歌的新政策对他们完全起不到作用。只有全社会对 deepfake 带来的负面影响提升重视,整个科技行业都行动起来,deepfake 的滥用问题才能得到解决。

把 deepfake 关进笼子里,各国、各大公司都在行动

  • 谷歌

这的确不是谷歌第一次出面打击 deepfake 内容制作了。在2019年,Google Research 就发表过一个大型视频数据集。其背后是谷歌在自己内部通过制作 deepfake 视频的方式,从而试图了解相关算法的工作原理。

对于谷歌来说,它需要提高识别 deepfake 的能力,从而在商业化产品环境里(最典型的就是 YouTube 用户视频上传),从源头上切断恶意换脸视频的传播途径。以及,第三方公司也可以使用谷歌开放的这个数据集来训练 deepfake 探测器。

请输入图说

不过,近几年 Google Research 确实没有花太多心思在打击 deepfake 上。反而,该公司最近推出的 Imagen,一个超高拟真度的文字生成图片模型,效果非常惊人,反倒是引发了一些批评。

Imagen 文字转图片的效果   图片来源:谷歌

  • 微软

微软研究院在2020年共同推出了一项 deepfake 探测技术,名为 Microsoft Video Authenticator。它能够检测画面中的渲染边界当中灰阶数值的不正常变化,对视频内容进行逐帧实时分析,并且生成置信度分数 (confidence score)。

微软也在和包括纽时、BBC、加拿大广播公司等顶级媒体合作,在新闻行业的场景下对 Video Authenticator 的能力进行检测。

与此同时,微软也在 Azure 云计算平台中加入了媒体内容元数据 (metadata) 校验的技术。通过这一方式,那些被修改过的视频内容可以和原视频的进行元数据比对——和下载文件的时候比对 MD5 值差不多意思。

  • Meta

2020年,Facebook 宣布在 Facebook 产品平台全面禁止 deepfake 类视频。

然而这个政策执行得并不彻底。比如,目前在 Instagram 上还可以经常见到那个著名的中国翻版马斯克 deepfake 视频(主要是从 TikTok 上转发过来的)。

图片来源:MaYiLong0|TikTok

在行业层面,Meta、亚马逊 AWS、微软、MIT、UC伯克利、牛津大学等公司和机构在2019年共同发起了一个 deepfake 检测挑战赛,鼓励更多、更优秀、更与时俱进的检测技术。

  • Twitter:

2020年 Twitter 封杀了一批经常发布 deepfake 视频的账号。不过对于其它 deepfake 内容,Twitter 并没有完全限制,而是会打上一个标签“被修改的内容”(manipulated media),并且提供第三方事实核查机构的检测结果。

  • 创业公司:

OARO MEDIA:西班牙公司,提供一套对内容进行多样化数字签名的工具,从而减少deepfake 等被修改过的内容传播对客户造成的负面影响。

Sentinel:位于爱沙尼亚,主要开发 deepfake 内容检测模型。

Quantum+Integrity:瑞士公司,提供一套基于 API 的 SaaS 服务,可以进行各种基于图像类的检测,能力包括视频会议实时 deepfake、截屏或图片“套娃”、虚假身份证件等。

  • 国家(立法和行政)

中国:2020年印发的《法治社会建设实施纲要(2020 - 2025年)》进一步要求,对深度伪造等新技术应用,制定和完善规范管理办法。

美国:2019年正式签署生效的2020财年国防批准法当中包含了和 deepfake 相关的条文,主要是要求政府向立法机构通报涉及跨国、有组织、带有政治目的的 deepfake 虚假信息行为。

加州、纽约州和伊利诺伊州都有自己的 deepfake 相关法律,主要目的是保护 deepfake 受害者的权益。

欧盟:GDPR、欧盟人工智能框架提议、版权保护框架、虚假信息针对政策等高级别法律文件,都对可能和 deepfake 有关的事务实现了交叉覆盖。不过,整个区域级别目前并没有专门针对 deepfake 的法律和政策。

在成员国级别上,荷兰立法机构在2020年曾经要求政府制定打击 deepfake 成人视频的政策,以及表示会考虑将相关问题写入该国刑法。

本文系作者 PW1 授权钛媒体发表,并经钛媒体编辑,转载请注明出处、作者和本文链接
本内容来源于钛媒体钛度号,文章内容仅供参考、交流、学习,不构成投资建议。
想和千万钛媒体用户分享你的新奇观点和发现,点击这里投稿 。创业或融资寻求报道,点击这里

敬原创,有钛度,得赞赏

赞赏支持
发表评论
0 / 300

根据《网络安全法》实名制要求,请绑定手机号后发表评论

登录后输入评论内容

扫描下载App