您不一定总是需要构建复杂的算法来破坏图像识别系统,而只需在随机位置添加对象即可.
在大多数情况下,您可以使用对抗模型来更改一些像素以使图像变形,从而使目标识别错误. 一些示例包括使用小贴纸将香蕉图像在几秒钟内变成烤面包机,或者戴傻眼镜来闪烁面部识别系统. 乌龟被误认为是步的经典案例证明了欺骗人工智能是多么容易.
但是,约克大学和加拿大多伦多大学的研究人员现已证实,将对象图像复制并粘贴到原始图像中会误导神经网络.


他们使用Tensorflow(TensorFlow是Google基于DistBelief的第二代人工智能学习系统)在对象识别API中对该模型进行了一系列实验. Tensorflow对象识别API是Google工程师构建的用于执行图像识别任务的开源框架. 该API是在TensorFlow代码之上构建的另一层,并描述了卷积神经网络的体系结构.
研究人员从一幅图像中获取一个对象,并将其添加到另一幅图像的不同位置,然后将这些图像输入到API中. arXiv在已发表的论文中将该技术称为目标移植.
在第一个示例中,研究人员将大象的图像添加到了坐在客厅里的男人的图像上. 该模型输出围绕不同目标的一系列彩色边界框,并计算出不同目标识别结果的可能性. 它确定了人类和笔记本电脑的目标为99%,椅子为81%图像识别 c,手袋为67%,书本和杯子为50%.
到目前为止,该模型表现良好. 但是,当将大象的图片添加到同一张图片时,模型识别就会开始变得混乱. 当大象的图片粘贴在红色的窗帘上时,模型突然对图片中的椅子的识别信心下降,评分从81%降低至76%,但由于有喝杯的可能性,评分为50%该表增加到54%.
更奇怪的是,当大象的照片被直接复制并粘贴到人的头部上时,被认为是椅子. 当将动物的图片粘贴到场景中的不同位置时,只有在两个位置才能正确识别该动物: 将其放置在笔记本电脑和书架的顶部.


▲当将大象的图片粘贴到场景中的不同位置时,API很难正常识别. 在许多情况下,它是完全无法识别的.
尽管如此,API仍然可以正确识别对象,因为在客厅中很少出现大象与一些常见对象混合的图像. 论文写道,神经网络从未见过将两种不同类型的对象组合在同一张图片中,并且我们不能指望神经网络在测试期间能够成功处理此类图像.
但是此测试不是不公平的测试. 它强调了神经网络的脆弱性,它们无法轻松适应训练数据中没有的新图像. 研究人员写道: 我们认为要求不同类型的对象在训练集中成对出现是不合理的,无论是在实践上还是在理论上.

人工智能很难识别重复的图像
当研究团队复制图像中已经存在的目标对象时,API仍然难以识别.
模型可以轻松地从原始图片中选择位于显示器前面键盘上的猫. 但是,当您将另一只猫的照片添加到图片中并重新调整以使其看起来像放在第一只猫的正后方时,该猫的脚被识别为狗,而键盘的一角被识别为复制书.
研究小组用不同的图像重复了该实验. 结果,牛头变成了马,棒球棒变成了笔记本电脑,手提包变成了杯子,您现在已经了解了.


▲在图像中添加相同的对象也具有相同的效果.
本文解释说,从不属于真实目标区域的像素获得的特征可能会使图像中的对象混淆. 对于目标ROI内的像素和ROI外的像素,情况都是如此.
这是所有图像分类模型都面临的问题. 它们都通过给定区域中一系列像素的特征来识别对象图像识别 c,但这意味着来自其他对象的像素可能与它们重叠,从而使它们混淆.
研究人员将此问题称为部分遮挡. 通常认为局部遮挡是物体检测的主要挑战. 成功解决局部遮挡问题将是推广的好兆头.
此处生成的图像可以看作是反样本的变体. 结论是,一些小图像(人类很难检测到)引起的干扰将导致神经网络的输出发生显着变化.
本文来自电脑杂谈,转载请注明本文网址:
http://www.pc-fly.com/a/jisuanjixue/article-188825-1.html
只不过马云向孙正义借钱了
是国内混乱导致大量农民种植