资讯中心

难敌对抗性图像的“愚弄”机器视觉也有弱点?

来源:逸炫 原标题:机器视觉的阿喀琉斯之踵
2016/7/29 14:01:03
32193
导读:近几年,我们经常听到机器视觉系统能有多好。现在,我们才发现他们还有蠢蠢的阿喀琉斯之踵。
  【中国智能制造网 名家论坛】现代科学了不起的进步之一就是机器视觉的兴起。近几年,新一代机器学习技术已经改变了计算机“看见”世界的方式。现在,机器在人脸识别和物品识别方面已经超越了人类,并将改变无数基于视觉的任务,例如驾驶、安全监控等等。机器视觉现在简直是超人。
  
  难敌对抗性图像的“愚弄”机器视觉也有弱点?
  
  从一些方面看,机器视觉比人类视觉更好。但是现在研究人员找到了一类能够轻松‘愚弄’机器视觉的‘对抗性图像’。但是有一个问题出现了。机器视觉研究人员已经注意到,这项新技术有一些让人担心的弱点。实际上,机器视觉算法有一个阿喀琉斯之踵,使它们被一些经过微扰的图像捉弄,而这些图像对于人类来说非常浅显易见。
  
  这些经过修改的图像被称为“对抗性图像,成为一种重要的威胁。“在人脸识别领域,一个对抗性例子可能由脸部非常细微的标记构成,因此人会正确识别出图像中的身份,而机器学习系统会将其识别为一个不同的人。”谷歌Brain的AlexeyKurakin、SamyBengio以及非营利机构OpenAI的IanGoodfellow说。
  
  他们在论文中称,这种对抗性攻击除了能影响完全在计算机中运行的系统,例如逃避垃圾邮件过滤器或病毒软件监测器,还能影响在物理世界中运行的系统,例如通过摄像头及其他传感器感知世界的机器人、视频监控系统以及图像和声音分类的移动应用。
  
  因为机器视觉还非常新,我们对于对抗性图像还知之甚少。没人知道如何好地创造它们、如何用它们来愚弄机器视觉系统、或者如何预防此类攻击。
  
  现在,Kurakin及同事的研究开始改变这一现状,他们对对抗性图像展开了系统研究。他们的研究说明了机器视觉系统在此类攻击之下多么脆弱。
  
  团队开始使用了一个机器视觉研究的标准数据库,名叫ImageNet。这个数据库的图像根据显示的内容进行分类。一个标准测试是基于这个数据库的一部分来训练一个机器视觉算法,然后利用数据库的另一个部分来测试算法能否良好进行分类。
  
  测试表现的测量方法是统计算法中高五项回答、甚至高一项回答中正确分类的频率(被称为前五准确率和前一准确率),或者中前五项或一项中回答不正确的频率(其前五错误率或者前一错误率)。
 

热门评论

上一篇:2045将迎来强人工智能时代 机器人或步入每个家庭

下一篇:成本快速下降 智能化已成机器人核心特征

相关新闻

<