枪 or 海龟?「谷歌」的 AI 出现严重BUG

文章正文
发布时间:2017-11-06 01:55

枪 or 海龟?「谷歌」的 AI 出现严重BUG

2017-11-05 16:49来源:36氪谷歌/人类/操作系统

原标题:枪 or 海龟?「谷歌」的 AI 出现严重BUG

从自动驾驶到深度摄像头的广泛普及,人类社会对AI的应用似乎已经有了一定信任度,即使机器从不会疲劳,但依然会产生偏离与错误。上图是一个玩具乌龟,至少我们看起来是个乌龟,对吧?但是利用神经网络构建的谷歌识别系统看来,这是一把来复枪。

这只通过3D打印的玩具乌龟可以被归纳为“对抗图像”。在AI的世界里,这些图片被设计成拥有欺骗机器视觉的能力,通过特殊的样式让AI系统失控,我们可以理解这些对抗图像是计算机眼中的错觉。因此人们可以通过这类图片让人脸识别系统将你识别为另一个人,也可以通过特定的范式让计算机把可爱的熊猫识别为一辆黑白相间的卡车。

事实上,如何在算法层面避免这些潜在的对抗性问题已经成为一个非常热门的研究领域。过去这些对抗性问题有过多次成功骗过机器的案例,但也并不是100%成功。如果我们把图片旋转一个角度或针对某一点放大或缩小,机器便会通过过去学习到的模式得出正确的结论。那么为什么这个3D打印的乌龟会这么重要?那是因为这是第一次机器在在三维世界中,通过多角度观察后依然被成功欺骗。

以上案例牵扯出一个非常现实的问题,即基于神经网络的智能系统在越来越普遍的过程中 ,随之而来的安全隐患也必须给予重视。Labsix 称这部分问题叫做 “Expectation Over Transformation”,其实机器不止把乌龟看成了来复枪,也把棒球看成了一杯浓缩咖啡,研究人员做了非常多的随机测试,发现错判率不低。

Labsix 团队表明,他们用作对抗图像测试所使用的系统是谷歌旗下的一个免费平台叫“Inception-v3”,至今这套系统并没有对对抗性图片做出修复,依然在不停的发现识别错误的问题。而谷歌至今也没有针对这篇论文和这件事情发表评论。但据相关人士透露,谷歌已经针对这起事件成立了专项组做跟进。

以上是 Labsix 提供的对比图,以表明系统在对抗性图片的干扰下是多么的不堪一击。左边的图片被机器错误的识别为鳄梨色拉酱,而将图片稍微倾斜后,结果才恢复正常。

当然,Labsix 团队表明,他们的对抗性实验并非在所有角度都能够有效果,而且这是团队在获取“Inception-v3”背后的视觉算法后,特地去研究其缺陷后做的对抗性图片。但是,从另一个角度而言,如果有人能够越过平台针对算法做针对性的对抗研究,那么是否自动驾驶这类关乎人类自身安全的领域也能够被攻克呢?Labsix表示,这是他们接下来要去尝试的方向。

人类社会拥抱AI已经成为了一个不可逆转的趋势,但是诸如这类对抗性实验而言,是对业内一个不可忽视的警告。如果我们选择性忽略,AI在未来给我们带来的就绝不仅仅是便利的生活了。返回搜狐,查看更多

责任编辑:

声明:本文由入驻搜狐号的作者撰写,除搜狐官方账号外,观点仅代表作者本人,不代表搜狐立场。

阅读 ()

投诉

文章评论
—— 标签 ——
首页
评论
分享
Top