8090要玩网 手游攻略 手游评测 只需修改一个像素即可使神经网络无法识别猫。纸质+代码

只需修改一个像素即可使神经网络无法识别猫。纸质+代码

时间:2024-11-04 09:38:30 来源:互联网 浏览:0

您需要对图像进行多少次修改才能欺骗神经网络识别错误的图像?

一个像素就够了。

日本的一项研究表明,改变图像上的单个像素可以使神经网络识别出错误的图像,甚至诱导其返回特定结果。

该研究由日本九州大学的Jiawei Su、Danilo Vasconcellos Vargas和Kouichi Sakurai共同完成。他们不仅写了一篇论文详细介绍了这种通过改变一个像素来欺骗神经网络的神奇技术,而且还开源了相应的Keras 实现。这种技术称为“单像素攻击”。

可惜VGG名气这么大,连猫都承认错了

在CIFAR-10和ImageNet数据集上,一像素攻击的成功率分别为68.36%和41.22%。

如何用一个像素攻击神经网络?

实验在CIFAR-10 和ImageNet 数据集上进行。我们以CIFAR-10为例进行说明。 CIFAR-10是一个图像识别数据集,包含10类60,000张3232像素RGB彩色图片。神经网络在这个数据集上的任务就是正确预测图片所属的类别。

单像素攻击的目标是通过从图像中选择一个像素并改变其颜色、改变神经网络输出的类别标签、降低对正确类别的置信度、提高对某些类别的置信度来创建对抗性图像。其他类别。信心。也就是让神经网络将其分类到错误的类别中。

这个任务看起来很简单,但是,3232=1024 像素,我应该选择哪一个呢?改成什么颜色?

只需修改一个像素即可使神经网络无法识别猫。纸质+代码

这些研究人员使用了一种称为差分进化(DE)的进化算法。

具体来说,首先通过随机修改像素生成400个对抗样本并输入神经网络;然后,将这些修改后的像素的位置和颜色组合起来,生成400个对抗样本并输入到神经网络中;接下来,如果与父样本相比,新样本降低了神经网络对正确类别的置信度,则父样本将被该样本上修改后的像素替换为当前已知的最优解。

之后,多次重复上述三个步骤,然后在最后一次迭代中,选择最小化神经网络对正确类别的置信度的对抗性示例。

如果其他类别的置信度高于正确类别的最终置信度,我们就成功了。最终选定的样本就是我们想要的结果。

关于全连接神经网络(AllConv),Network

在in Network(NiN)、VGG16、AlexNet的测试中,该方法的成功率如下表所示:

表中的针对性攻击是指神经网络将图像误认为特定类别的攻击。

一些研究人员也在ImageNet上使用了这种方法,将图像尺寸统一为227227,大约是CIFAR-10图像尺寸的50倍。

在ImageNet 上的测试表明,这种欺骗神经网络的方法也适用于分辨率相对较高的图像。

论文称,DE方法不像基于梯度的方法那样容易陷入局部极小值,并且不需要攻击目标系统太多的信息,因此生成的对抗样本适用于多种神经网络网络。

只需修改一个像素即可使神经网络无法识别猫。纸质+代码

相关链接

论文一号像素攻击欺骗深度神经网络

https://arxiv.org/pdf/1710.08864.pdf

Keras 实现

https://github.com/Hyperarticle/one-pixel-attack-keras

开头提到的迷幻补丁Adversarial Patch

https://arxiv.org/pdf/1712.09665.pdf

- 超过-

诚意招聘

用户评论

淡淡の清香

这太厉害了!竟然仅仅改变一个像素就能让神经网络识别错误,真的让人目瞪口呆!

    有9位网友表示赞同!

清羽墨安

看了一下论文和代码,感觉这个方法很有潜力,未来能颠覆很多领域吧!

    有12位网友表示赞同!

毒舌妖后

我很好奇这种技术将来会如何应用,会不会带来一些新的安全隐患?

    有5位网友表示赞同!

♂你那刺眼的温柔

太震撼了!一个像素就能打败神经网络,感觉科技发展好快啊。

    有6位网友表示赞同!

熟悉看不清

看起来这个方法在对抗攻击方面很有效果,值得学*!

    有9位网友表示赞同!

最迷人的危险

论文写的不错,比较详细地阐述了实验过程和结果。

    有15位网友表示赞同!

凉笙墨染

这算不算是一种攻击漏洞?

    有16位网友表示赞同!

哽咽

感觉代码逻辑很清晰,理解起来还是容易的。

    有11位网友表示赞同!

纯情小火鸡

神经网络真的太神奇了,也能被这么轻易破解?

    有9位网友表示赞同!

权诈

修改一个像素就能改变图像分类的结果,真是不可思议!

    有11位网友表示赞同!

服从

期待将来更多研究和应用,这个领域很有意思!

    有19位网友表示赞同!

寂莫

这个“对抗样本”的生成方法很巧妙啊。

    有6位网友表示赞同!

我的黑色迷你裙

学*一下代码,自己试试能不能生成对抗样本。

    有7位网友表示赞同!

笑傲苍穹

神经网络的安全性问题似乎越来越突出?

    有17位网友表示赞同!

西瓜贩子

这个研究成果对人工智能安全有警示意义。

    有15位网友表示赞同!

怅惘

论文中的实验结果非常有趣,让我对“对抗样本”有了更深入的理解。

    有13位网友表示赞同!

?亡梦爱人

代码实现过程很有启发性!

    有16位网友表示赞同!

巷陌繁花丶

感觉神经网络在未来还有很长的路要走呀。

    有11位网友表示赞同!

微信名字

这个研究成果可能会引发很多新的讨论和争议。

    有5位网友表示赞同!

标题:只需修改一个像素即可使神经网络无法识别猫。纸质+代码
链接:https://www.yaowan8090.com/news/sypc/11575.html
版权:文章转载自网络,如有侵权,请联系删除!
资讯推荐
更多
绯红之境兑换码最新2021 礼包兑换码大全

绯红之境兑换码最新2021 礼包兑换码大全[多图],绯红之境兑换码怎么领取?绯红之境兑换码有哪些?绯红之境在今日

2024-11-04
妄想山海怎么加好友 加好友方法大全

妄想山海怎么加好友 加好友方法大全[多图],妄想山海添加好友功能在哪里?妄想山海添加好友的方法是什么?好友添

2024-11-04
三国群英传7霸王再临攻略 霸王再临攻略技巧开启方法

三国群英传7霸王再临攻略 霸王再临攻略技巧开启方法[多图],三国群英传7霸王再临怎么玩?三国群英传7霸王再临

2024-11-04
江南百景图又见桃花村钓鱼位置在哪?又见桃花村钓鱼攻略

江南百景图又见桃花村钓鱼位置在哪?又见桃花村钓鱼攻略[多图],江南百景图又见桃花村钓鱼怎么钓?又见桃花村钓

2024-11-04