猎奇新闻
当前位置: 猎奇新闻   >   前沿发明   >   正文

竟把人当狗:人工智能轻松被骗成人工智障

2018-03-12 18:32雷锋网
分享:

2月3日,在ICLR 2018大会期间,谷歌大脑负责人Jeff Dean在推特上转了一篇名字为Anish Athalye的推文,推文内容如下:防御对抗样本仍然是一个尚未解决的问题,三天前公布的ICLR接收论文里,八篇关于防御论文里已经有七篇被我们攻破。

这一言论立刻引起了整个机器学习学术圈的关注。

Wired近日发布了一篇关于这一事件后续的讨论文章,我们进行了编译。

在机器学习强大力量的推动下,科技公司正在急于将很多事物与人工智能结合在一起。但是,激起这种趋势的深度神经网络却有一个很难解决的弱点:对图像、文本或音频进行微小的改变就可以欺骗这些系统,感知到那些并不存在的事物。

对依赖于机器学习的产品而言,这可能是一个大问题,特别是对诸如自动驾驶汽车这种视觉系统,研究者们正在努力制定针对此类攻击的防御措施,但很有挑战性。

今年1月,一场顶级机器学习大会公布了它在4月选出的11篇新论文,它们提出了应对或检测这种对抗性攻击的方法。

但仅三天后,麻省理工学院学生Anish Athalye就声称已经“破解”了其中7篇新论文,其中包括Google、亚马逊和斯坦福等机构。“有创造性思维的攻击者仍然可以规避这些防御。”Athalye说。

他与伯克利分校的研究生David Wagner和教授Nicholas Carlini一起参与了这个项目的研究。 

这个项目导致一些学者对这三人组的研究细节进行了反复讨论,但关于项目中提到的一点他们几乎没有争议:目前人们尚不清楚如何保护基于深度神经网络的消费品和自动驾驶产品以免让“幻觉”给破坏了。

“所有这些系统都很脆弱,”意大利卡利亚里大学的助理教授Battista Biggio已经研究机器学习的安全问题有十年之久,“机器学习社区缺乏评估安全性的方法论。”

人类将很容易识别Athalye创建的上面这张图,它里面有两名滑雪者,而谷歌的Cloud Vision服务认为它有91%的可能性是一只狗,其他的还有如何让停止标志看不见,或者对人类听起来没问题的语音却让机器转录为“好的谷歌,浏览到恶意网站.com”。

到目前为止,此类攻击还没有在实验室以外的地方得到证实。

但伯克利的博士后研究员BoLi说,现在他们仍然需要认真对待。自动驾驶汽车的视觉系统,能够购物的语音助理以及过滤网上不雅内容的机器学习系统都需要值得信赖。

“这是非常危险的。”Li说,她去年的研究——在停车标志上贴上贴纸——表明可以使机器学习软件识别不到它们。

今日热点

特别推荐

热点排行

相关推荐

为你推荐

猎奇
首页