资讯中心

“AI假脸王”泛滥,人脸识别还安全吗?

来源:科技联盟
2019/3/7 9:13:18
22049
导读:充满躁动的20世纪,两次世界大战前后的许多发明都是以井喷和“你方唱罢我登场”的速度演绎着科技发明的“进化论”,那在“AI假脸王”泛滥的当下,人脸识别还安全吗?
  【中国智能制造网 行业动态】在正式进入人脸识别技术这个话题之前,我们先从整容手术的奇特历史讲起,沿着这个思维,一起探讨人脸识别的前世今生。
“AI假脸王”泛滥,人脸识别还安全吗?
 
  仿真·易容术——整容手术
 
  整容手术虽然是一种新型手术学科,但也有近百年的历史。尤其是二战时期,轴心国与同盟国的谍报部门、特工部门为了搞敌后搞破袭战,也有使用易容术的方法来让己方特工人员冒充敌方人员实施破坏。
 
  鉴于那个时代还未出现计算机和人脸识别技术,易容后的特工容易蒙混过关,只需要拿着伪造的证件和冲洗暗房制作的旧式“PS”照片,利用相似的长相,就可以轻易糊弄敌人。
 
  俄罗斯纪录片《破袭者》介绍库兹涅佐夫的画面
 
  在近上映的俄罗斯纪录片《破袭者》集当中,讲述了苏联内务人民委员会(NKVD)特工尼古拉·伊万诺维奇·库兹涅佐夫冒充成德军中尉保罗·威廉·西尔贝特混入德占区搞暗杀破坏的故事。
 
  影片中展现的苏联选拔特工的方法代表了那个时代的特点,无外乎就是长相相似,易容手术难度低,可以熟练掌握敌国语言的人。被千挑万选出来的特工,靠着一张脸便可以如入无人之境,穿梭于敌后。那是一个易容术称霸没有人脸识别技术的时代。
 
  俄罗斯纪录片《破袭者》中库兹涅佐夫整容的历史照片对比画面
 
  今天有了人脸识别技术,并且识别能力日趋增强,网上已经能看到不少能够识别整容手术的人脸识别成功案例,但是“道高一尺,魔高一丈”的过关骗术也不在少数。毕竟,脸是一直露在外面的,可以任你涂抹和修改。
 
  作为人工智能技术的一个代表,人脸识别技术今天已经出现在大量应用场景中。随着这项科技的应用逐步增多,围绕人脸识别技术的种种质疑和争议也多了起来。
 
  下面仅演示两个例子,来探讨一下人脸识别技术的现实困境。
 
  全息投影·易容术——复活的邓丽君
 
  邓丽君逝世23周年之际,日本节目《金SMA》利用全息投影技术,使用全息投影复活了邓丽君。在节目的画面中,人们可以在360度全景摄影棚中看到邓丽君1986年在《日本作曲大赏》演唱《我只在乎你》日文版的经典片段。已经去世23年的邓丽君“复活”,栩栩如生,即便是摄像机随意调换角度,靠近邓丽君的投影,连着台下观众真人一起拍摄,也让人难辨真假。
 
  全息投影技术用于怀念故去的亲人,用于唤起一代粉丝对歌星的记忆,是一件很有意义的事,它可以为人类保存更多的文化元素,让文艺之星或伟大人物“”。
 
  换个角度,在此笔者开了个脑洞,如果全息投影被应用于移动终端设备上,那有歪脑筋的人就有可能利用它投射的人像,破解人脸识别设备,从事犯罪活动。
 
  假设邓丽君去世的1995年,有了人脸识别技术应用于银行存取款用户识别,那财迷心窍的人就会把邓丽君的各种录像带信息复制加工成全息投影,选取需要的部分来攻破人脸识别系统,盗取邓丽君的巨额遗产。
 
  PS做一张邓丽君的图片也花费一番功夫,更何况这是实景演播室!
 
  摄像机靠邓丽君投影那么近也看不出什么不对
 
  如此一来,那些明星大腕三天两头出现在电视屏幕中和影剧院屏幕中,留下了大量视频素材,那他们的个人财产安全就有可能因为人脸识别的技术漏洞,而变得非常脆弱。
 
  虽然上述内容是假想,但是全息投影的技术现实给破解人脸识别技术,也许会带来不可预知的挑战,人脸识别技术的安全隐患和不可靠性值得进一步探讨。
 
  视频·易容术—— “Face2Face”AI直播换脸技术
 
  德国纽伦堡大学在2016年发表了一篇face2face的论文,从技术上已经实现了远程用模拟他人人脸进行身份认证。也就是说,黑客根本不需要你的人脸生物特征数据,就可完成人脸进行身份认证。
 
  美国斯坦福大学的研究团队也在当年研发出一款人脸跟踪软件Face2Face,它可以通过摄像头捕捉用户的动作和面部表情,然后使用Face2Face软件驱动视频中的目标人物做出一模一样的动作和表情,效果极其逼真。研究人员分别模仿了布什、奥巴马、、普京,笔者看后觉得细思极恐,毫无PS痕迹!
 
  由于其的捕捉效果和实时化能力,Face2Face在诞生之日起就引起了轩然大波。在其演示视频下,无数网友质疑这项技术将成为网络诈骗、绑架勒索的帮凶,质疑如果视频电话的另一端,竟然不是你认识的那个人,那将会是多么恐怖的一件事。
 
  “AI假脸王”开源:新一代GAN攻破几乎所有人脸识别系统
 
  还记得英伟达去年推出的StyleGAN吗?全新的生成器架构让这个“新一代GAN”生成的人脸真实到可怕。现在,StyleGAN已经开源,包括源代码和官方TensorFlow实现,都附有详细使用说明。
 
  以假乱真的精细人脸生成,令不少研究人员都惊呼:已经无法分辨虚拟和现实!
 
  上述人脸全部由计算机生成,StyleGAN的全新风格迁移生成器架构能控制发色、眼睛大小等脸部特征。
 
  之前,大多数研究都集中在如何提高“换脸”技术上,也就是如何让计算机生成超逼真的人脸。
 
  谁料,这种技术发展的滥用造成了反效果,也即所谓的“DeepFake”。现在,DeepFake已被用于指代所有看起来或听起来像真的一样的假视频或假音频。
 
  去年底,Idiap 生物识别安全和隐私小组负责人、瑞士生物识别研究和测试中心主任 Sébastien Marcel 和他的同事、Idiap 研究所博士后 Pavel Korshunov 共同撰写了论文,对人脸识别方法检测 DeepFake 的效果进行了较为全面的测评。
 
  他们经过一系列实验发现,当前已有的先进人脸识别模型和检测方法,在面对 DeepFake 时基本可以说是束手无策——性能优的图像分类模型 VGG 和基于 Facenet 的算法,分辨真假视频错误率高达 95%;基于唇形的检测方法,也基本检测不出视频中人物说话和口型是否一致。
 
  看到这几条新闻,我们不禁要反思,人脸识别等高科技的应用是不是要认真考虑一下社会舒适度和个人有效保护隐私的内心需要。到底怎样的身份识别能够未来,这些林林总总的问题都需要每一个科技研发团队、社会科学学者、法律人士认真思考。
 
  科技在发展的过程中,不可能是一片坦途,回顾科技发展史,尤其是充满躁动的20世纪,两次世界大战前后的许多发明都是以井喷和“你方唱罢我登场”的速度演绎着科技发明的“进化论”,很难说谁永远对,谁一时错,但有一条基本的原则是不变的,那就是能够推动人类社会进步,更好地维护人的权利和隐私,让这个世界变得更美好,这样的发明能够走得更远,发展得更好。
 
  (原标题:“AI假脸王”泛滥,人脸识别还安全吗?)

热门评论

上一篇:无缝覆盖+动态管理 长江经济带“清废”进行时

下一篇:协作机器人是主流 AI黄金时代来了

相关新闻

<