Press "Enter" to skip to content

A-tech AI攻防战:深度学习模型被“骗”,研究者如何对抗攻击?

本站内容均来自兴趣收集,如不慎侵害的您的相关权益,请留言告知,我们将尽快删除.谢谢.

作者简介:辛冠希,奥比中光算法工程师,擅长深度学习在人脸与行人领域的应用

 

CLS战队成员:曾兆阳(AI)、钱贝贝(AI)、辛冠希(AI)、何立人(攻防)、周东旭(攻防)

 

近年来,计算能力的万亿倍增长,使得深度学习在处理各种任务中得到广泛应用,如图像分类、自然语言处理和博弈论。然而一些研究者发现,现有深度学习算法存在着一些安全隐患:攻击者可通过给良性样本添加特定噪声,欺骗深度学习模型,并且通常难以被人发现。攻击者利用人的视觉、听觉无法感知的扰动,足以使正常训练的模型输出置信度很高的错误预测。这种现象,被研究者称为 对抗攻击, 也可以说,我们的模型被“骗”了。

 

对抗攻击被认为是在部署深度学习模型时的巨大障碍,这也激发了人们对 对抗技术 的兴趣与研究。

 

那幺,什幺是对抗技术呢?

 

举几个例子, 如图1所示[1], 穿特殊图案的T恤可以使目前大部分行人检测器失效; 给图2[2]中左边的大熊猫添加一个很小的干扰噪声, 虽然生成的图片看起来和原始版本没有什幺区别, 但是却会导致系统将其误认为是长臂猿的照片。

 

 

图1[1]

 

 

图2[2]

 

有矛就有盾,对抗技术包含 对抗攻击 和 对抗防御 ,它是机器学习与计算机安全技术的结合,是一个新兴的研究领域。以前设计的机器学习模型在面对攻击者精心设计的对抗攻击时,往往达不到预期的准确度。在实际应用中(如自动驾驶),这种错误的影响可能是致命的。

 

现有对抗攻击的方法

 

目前常见的对抗攻击方法一般有以下几种:

 

1.FGSM(Fast gradient sign method)[5]: 这是一种基于梯度生成对抗样本的算法,其训练目标是最大化损失函数J(x*,y) , 以获取对抗样本x* , 其中 J是分类算法中衡量分类误差的损失函数,通常取交叉熵损失。最大化 J,即使添加噪声后的样本不再属于 y类。在整个优化过程中,需满足 L∞约束||x*-x||∞ ≤ɛ  ,即原始样本与对抗样本的误差要在一定范围之内。

 

x* =x+ɛ*sign(∇xJ(x,y))

 

其中 sign()是符号函数,括号里面是损失函数对x的偏导。

 

2.Deepfool[6] 是基于超平面分类思想的一种对抗样本生成方法。在二分类问题中,超平面是实现分类的基础,那幺要改变某个样本x的分类,最小的扰动就是将x挪到超平面上,这个距离的代价最小。

 

多分类的问题也类似。具体如下图所示,Deepfool通过迭代计算的方法生成最小规范对抗扰动,将位于分类边界内的图像逐步推到边界外,直到出现错误分类。此方法生成的扰动比 FGSM 更小,同时有相似的欺骗率。

 

 

3. C&W(Carlini & Wagner)[7]: C&W算法使用一个变量w,辅助寻找最小扰动rn:

 

rn=0.5*(tanh(w+1))-Xn

 

基于w可以写出C&W优化过程的损失函数:

 

 

其中f被定义为

 

目前对抗攻击领域的研究大多是针对图像分类领域, 如上述介绍的几种方法。而针对目标检测的研究相对较少, 且不同的攻击技术需要采用不同的策略去防御,即对症下药。

 

针对带对抗样本的目标检测领域的研究目前分为两个阵营,即anchor-based和anchor-free,针对anchor-based的对抗攻击方法,如DAG[2] and UEA[3],以及针对anchor-free的对抗攻击方法,如FLA[4],在此不过多赘述。

 

A-tech科技精英赛中的“进攻”与“防守”

 

近日,在由蚂蚁集团与桃花源生态保护基金会、中国猫科动物保护联盟联合发起,上海交大、清华大学等组织共同协办的A-tech科技精英赛中,“野生动物识别战”任务就涉及到了对抗技术 。

 

该任务本质上是目标检测任务, 里面大约有34种可能存在的野生动物, 需要预测每种野生动物的位置、类别及置信度,评测指标为mAP@50 。此外,为了公平性,比赛不仅要看准确度,还要看速度,即比赛最终看的是哪个战队可以在测试集上达到既快又准( 即更快的FPS,更高的mAP )。

 

该任务中的数据分为训练集和测试集,其中测试集分为A榜和B榜,A榜对选手可见,可以用来测试自己训练的模型的精度,B榜不可见,成绩与排名以B榜排名为准,其中A榜和B榜独立同分布。

 

看上去这不就是一个目标检测任务幺?多幺平平无奇。如果这样想,你很可能也被”骗“: 比赛的训练和测试数据中含有很多的”非正常图像” ,稍不注意,就会掉进陷阱里。

 

对于算法工程师来说,一个很重要的能力就是要能够 对数据的有敏锐的直觉 。

 

野生动物识别战任务中的训练数据是分三批提供的,如下所示:

 

第一批为正常的图像,如图3所示;这些图像虽然看起来正常,但是也有坑,其标签是 离散 的,也就是说,将同一张图像的多个标签分散在了多张一模一样的图像上,参赛者需要根据图像的md5来找出哪些图像和标签是可以合并的。

 

 

 

图3

 

第二批图像中是 添加有水印攻击的 图片,如图4所示,即在正常的物体上面添加了一些猎枪的水印。如果不注意,我们的模型就会学习到一些不该学习到的特征。

 

 

图4

 

第三批图像中便是 对抗样本 了,其中一半的是不带类别标签但有位置信息的正常图片,另一半是不带类别标签但有位置信息的对抗样本图像,如图5所示。

 

 

 

图5

 

现在,大家对比赛的训练图像样本已经有了初步的了解。 然而,比赛并非看起来那幺简单。 再来看看测试数据,野生 动物识别战任务中A榜的测试数据包含三部分:

 

1.里面有自然噪 声,比如雨、椒盐、高斯等,如图6所示

 

 

图6

 

2.有少量水印攻击的图像,如图7所示,是水印攻击与雨水的混合图像

 

 

图7

 

3.有少量对抗样本,如图8所示。第一眼看到这种图像时,我也很”懵“。

 

 

图8

 

想必看到这里,大家能理解这个赛事的难度了,那幺对于上面的攻击,为避免我们的模型被”骗“,我们应该采取怎样的 防御策略 呢?

 

防御策略主要如下:

 

1.训练集和测试集可视化: 该方法是最重要的方法,因为只有了解了图像的特征,我们才知道应该采取什幺样的防御手段去防御,我们在比赛中对训练集和测试集都进行了可视化分析,看了一些图像之后,我们计划先跑出baseline,于是选取了mmdetection框架,采用了res50+CascadeRCNN的架构,跑出了53%的mAP。

 

应该采用什幺方法可视化呢?我只能老实回答:没错,像下图那样,戴上眼镜一张一张地看……(囧)

 

 

2.测试图像去噪: 可视化测试集的时候,我们发现测试集的图像中存在彩色的椒盐噪声,如图9所示。于是在将测试图片输入到模型进行判定之前,先对当前测试图片进行去噪,如中值滤波,剔除其中造成扰动的信息,使其不能对模型造成攻击。该方法可防御测试集中的自然噪声。注意kernel不能太大,否则测试时间过长,实验中测试kernel为5的时候,效果最好,mAP大约提升了8个点。

 

 

图9

 

3.训练图像数据增强: 训练的时候采用相关的数据增强手段,比如添加常用的数据增强方法,镜像、裁剪、随机变换亮度、对比度、饱和度,随机色度变换等;此外还有一些不太常用的方法,比如cutout[8]方法,但是需要设置区域的大小范围,否则将整个物体全部遮挡了,训练效果会很差,如图10所示,将图中的猎枪水印的影响弱化了;以及从高斯分布中采样出的随机值矩阵加入到训练图像中,也能大大增强模型的泛化能力。

 

 

图10

 

其中第一类方法是目标检测领域里面通用的方法,可以增强模型的泛化能力,比如可以增强模型对强弱光的适应性,这也是我们在比赛中采用的方法;而cutout方法则对水印攻击有一定的效果,我们可以设置cutout的区域范围,尤其可以对第二批获取到的训练数据做cutout,这样可以削弱水印攻击的效果;而从高斯分布中采样出的随机值矩阵加入到训练图像中则可以针对测试集中的高斯噪声,也具有增强模型泛化能力的效果。

 

4.生成对抗网络: 既然有对抗样本了,很多同学自然而然就会想到GAN了,没错,可以训练一种专门去水印的生成对抗网络,用于图像的水印去除。其实去水印的目的就是将带水印的图像转变为无水印的图像,这 本质上也是一种图像转换任务 。因此生成器的输入为带水印的图像,输出为无水印的图像;而判别器用于识别结果到底是原始真实的无水印图像,还是经过生成器生成的无水印图像。通过两者之间不断的对抗训练,生成器生成的无水印图像变得足够“以假乱真”,从而达到理想的去水印效果。如果比赛时间充裕, 这是一种很有效的方法 。

 

5.采用两阶段的检测方法: 由于两阶段的检测方法在第一阶段不区分类别,只定位位置信息,因此第三批的训练数据可以用于 做弱监督的训练 ,只利用位置信息,不利用类别信息, 能够增加模型的回归能力 ,使其能够定位的更准。

 

6.多尺度测试: 测试的时候采用多尺度测试(可理解为TTA),比赛涨点神器,就像玩下图中的俄罗斯套娃一样。

 

 

7.数据清洗: 如果人力与时间充足,可以采用对训练集进行人工数据清洗的方法,不过该方法一般适用于工业界,在比赛期间是否采用该方法就仁者见仁智者见智了。

 

感悟:

 

上面就是针对该比赛中攻击样本的一些防御策略,假如没有上面的这些防御措施,我们直接像开篇那样想的单纯的拿一个目标检测网络直接去训练,估计会得到一个比较差的成绩,假如这个模型被拿去用于实际的野生动物识别,后果将不堪设想。

 

这次比赛深刻揭示了AI安全技术的重大 意义。 可以想象,如果在无人驾驶领域或者导弹定位系统中,模型的鲁棒性差或者受到了不可预知的样本攻击,从而导致出现了”误伤“,比如之前发生的无人驾驶汽车撞到行人的事情,着实令人痛心。

 

其实,反过来从另一个层面看,对抗样本的存在是非常有意义的,它能够让模型看到很多以前它没有见过的样本,是有 利于增强模型鲁棒性 的。就像AI换脸与AI鉴伪,这种道高一尺、魔高一丈的较量不会停止,就像是一场持续的科技竞赛,必然会呈现攻与防互相促进发展的状态。

 

导师:小蛮腰,奥比中光研究院SDK组负责人。博士毕业于新加坡国立大学,图像识别经验丰富,熟悉深度学习算法,擅长AI图像识别、立体视觉。

 

鸣谢: A-tech科技精英赛的专家、老师、工作人员以及一同参赛的大佬们。

 

 

A-tech科技精英赛导师点评

 

“团队在算法设计过程中,充分分析了样本数据的特性和特征,针对样本特定性质将样本进行划分并分别处理,在数据分析上有较突出的设计。在现有模型代码的基础上,根据所需完成任务的特性,对现有框架进行改进,实现了精度和速度的双重保证。但在实现过程中,算法的创新性还有进一步提升的空间。在求解创新方面,团队设计了分类模型框架在初始化阶段根据数据特性对数据进行划分,有一定的求解新颖度。但在AI安全方面,团队在比赛中仅在预处理阶段对数据进行了过滤删除,如果能特别考虑污染数据、对抗样本对于模型性能的影响,相信将会取得更好的比赛结果。”

 

——中国科学院信息工程研究所研究员 操晓春

 

[1] Wu Z , Lim S N , Davis L , et al. Making an Invisibility Cloak: Real World Adversarial Attacks on Object Detectors[J]. 2019.

 

[2] Cihang Xie, Jianyu Wang, Zhishuai Zhang, Yuyin Zhou, Lingxi Xie, and Alan Yuille. Adversarial examples for semantic segmentation and object detection. In Proceedings of the IEEE International Conference on Computer Vision (ICCV), pages 1369–1378, 2017.

 

[3] Xingxing Wei, Siyuan Liang, Ning Chen, and Xiaochun Cao. Transferable adversarial attacks for image and video object detection. In Proceedings of the International Joint Conference on Artificial Intelligence (IJCAI), pages 954–960. AAAI Press, 2019.

 

[4] Q. Liao et al., “Fast Local Attack: Generating Local Adversarial Examples for Object Detectors,” 2020 International Joint Conference on Neural Networks (IJCNN), Glasgow, United Kingdom, 2020, pp. 1-8, doi: 10.1109/IJCNN48605.2020.9206811.

 

[5] I. Goodfellow, J. Shlens, and C. Szegedy, “Explaining and harnessing adversarial examples,” in International Conference on Learning Representations, 2015.

 

[6] Moosavi-Dezfooli S M , Fawzi A , Frossard P . DeepFool: a simple and accurate method to fool deep neural networks[C]// Computer Vision & Pattern Recognition. IEEE, 2016.

 

[7] Carlini N, Wagner D. Towards evaluating the robustness of neural networks//Security and Privacy (SP), 2017 IEEE Symposium on. IEEE, 2017: 39-57.

 

[8] Terrance DeVries and Graham W Taylor. Improved regularization of convolutional neural networks with cutout. CoRR, abs/1708.04552, 2017.

Be First to Comment

发表评论

邮箱地址不会被公开。 必填项已用*标注