人脸识别时代,如何应对“换脸”危机?

作者:杨燕

继2012年“互联网+”后,“AI+”成为时代主旋律。然而在隐秘的角落,由AI所引发的安全风险和“黑灰产”问题正与日俱增。尤其是人脸识别——作为AI技术落地最广泛的场景之一,所面临的安全、伦理和道德等挑战愈发严峻。

经过近些年的快速发展,人脸识别已和智能硬件解锁、支付,以及公共服务等身份验证直接绑定在一起。因面部信息的唯一性,以及作为个人隐私中最敏感、重要的组成部分,一旦出现问题,将会对个人隐私、公共安全造成巨大威胁,故对技术的安全要求和标准相对更高。

以下,我们通过两个较为典型案例,来说一说AI攻防对人脸识别/人工智能技术和行业发展的作用和意义。

“换脸”技术的攻防战

2018年,一段“奥巴马”呛声特朗普的视频在全美疯传。事后,这个视频被证明为伪造,其背后所利用的即是AI“换脸”技术。该技术是基于生成对抗网络(GANs),通过两个模型——一个负责生成伪图,另一个负责鉴别伪图,对抗博弈的方式不断进化,从而达到以假乱真的水平。

而在更早的2017年,一位名为deepfakes的网友将色情电影中演员的脸替换成好莱坞女星,并将合成视频在Reddit网站上发布,引发全球热议,遭到大众对技术滥用的质疑。

这也为AI“换脸”技术吸引了一波关注,DeepFake(深度伪造或深度合成)就此成为该技术的代名词,同名算法也在Github上开源,导致合成视频片段大量涌现。

根据创业公司Deeptrace报告显示,2019年初,互联网上流转的、利用DeepFake技术生成的视频,共有7964个,仅仅9个月后,这个数字跃升至14678个,而其中就有高达96%的DeepFake视频与色情相关。

DeepFake技术的滥用引发全球担忧,也为人脸识别技术的应用推广带来了巨大风险。据称,2019年底,硅谷人工智能公司Kneron曾使用DeepFake技术成功欺骗了支付宝和微信支付,并且顺利通过机场、火车站等自助终端检验。

虽然各国纷纷加强了监管措施,譬如美国政府公布了《禁止恶意深度伪造法案》《2019年深度伪造责任法案》《2019年深度伪造报告法案》,旨在通过限制DeepFake合成技术,打击虚假信息的传播。但遏制DeepFake技术滥用的根本手段,还是需要从安全对抗的本质上出发,铸造更高门槛的防御技术,以AI应对AI,在攻防“互殴”之中不断增强系统的鲁棒性。

为此,科技巨头们也纷纷加入了这场“安全对抗”的战役之中。去年9月,谷歌开源了包含3000个AI生成的视频数据库,以支持社区加速开发DeepFake检测工具,对抗技术滥用风险;Facebook也在同年12月发布了一套“反识别”系统,帮助辨别实时影像的真伪。

(责任编辑:四海棋牌官网)

本文地址:http://www.rampmediasf.com/junshi/2020/0914/1111.html

上一篇:华为P9真机首曝:双摄像头是亮点 2888起售 下一篇:全部自研?供应链曝光2021款iMac将搭载自研GPU