预测不确定性与对抗鲁棒性的关系研究
陈思宏
,
沈浩靖
,
王冉
,
王熙照
软件学报 ![]() ![]() |
![]() |
深度学习已经被广泛应用于实际生活中, 其应用领域包括图像分类、人脸识别、语音识别等, 甚至在有些任务中能超出人类的表现. 但最近的研究[1, 2]表明, 深度学习很容易受到对抗样本的攻击. 对于攻击者精心设计的用于欺骗分类器的样本, 模型很容易做出错误的分类, 而且这类样本对于人类来说是不可察觉的. 在某些强调安全的相关领域, 比如人脸识别、自动驾驶等, 如果无法抵抗住对抗攻击, 例如: 攻击者可以很容易地伪装成别人, 自动驾驶中的汽车没有判断到前方的行人, 这会造成巨大的安全隐患. 对抗样本在这些应用的推广中带来了巨大的阻碍, 因此, 模型对于对抗样本的鲁棒性就显得至关重要. 希望我们的模型准确率更高, 同时也要有更好的对抗鲁棒性, 其训练时间也希望可以尽可能地短, 也就是训练时间在一定范围内, 准确率与普通训练相差无几, 同时使得我们的模型对抗鲁棒性更好.
目前来说, 对抗训练[1, 3-5]是最常用的一种提高模型对抗鲁棒性的方法. 对抗训练是一种数据增强的方法, 主要做法就是在训练集中添加对抗样本, 并重新训练模型. 直观上来说, 这样做可以使得模型学习到对抗样本的特征, 对于这种攻击方法产生的对抗样本会有更好的鲁棒性. 通过添加足够多的样本到训练集中, 对于其他攻击方法产生的对抗样本也能获得一定的鲁棒性. Madry等人[4]将对抗训练过程公式化为一个鞍点问题(见公式(1)), 现有的对抗训练方法都是基于该最小-最大化公式. 然而, 对抗训练会降低模型在干净样本上的准确率, 这种现象被称为accuracy-robustness problem. Tramer等人[3]也做了大量的实验, 证明了对抗训练的确会降低模型预测的准确率. 此外, 因为在训练过程中需要生成对抗样本, 即公式(1)中的最大化过程, 使得整个训练过程的时间大大增加:
minθE(x,y)∈D[maxδ∈SL(θ,x+δ,y)] | (1) |
其中, L指的是损失函数, δ指的是加到样本上的扰动, S是对扰动所加的限制. 最大化过程的目的是找到使得模型做出错误判断最严重的对抗样本, 之后, 最小化的过程可以视为一个矫正过程, 让模型学习犯错最严重的对抗样本的特征, 并训练模型使其正确分类.
我们将深度学习中的不确定性分为3类, 分别为模型的不确定性、数据的不确定性以及预测的不确定性, 其具体含义将会在第2.3.1节中进行阐述. 在本文中, 我们主要研究预测的不确定性与模型对抗鲁棒性的关系. 预测的不确定性反映了模型预测的置信度, 如果模型对于预测结果的置信度越低, 则不确定性越大, 一般我们使用的是信息熵[6]来度量预测的不确定性. 据我们所知, 研究预测不确定性与对抗鲁棒性关系的相关文章较少, Shen等人提出浅层卷积层网络存在Min-Max性质, 并证明具有该性质的模型相较标准模型具有更好的对抗鲁棒性[7]. 同时, 他们利用不确定性分析, 提出了让模型具备Min-Max性质的损失函数, 但其损失函数很难推广到较深的神经网络. Guided Complement Entropy (GCE)[8]. Chen等人通过摊平不正确类的概率, 以使得模型对于正确类的结果更加置信, 从而提高模型的对抗鲁棒性. 其做法就是最大化不正确类预测概率的信息熵, 但他们只是提出了一个直观的想法. 我们从理论上推导出了预测不确定性与对抗鲁棒性的关系, 并在这一基础上提出了一个新的提高模型鲁棒性的方法, 本文将以GCE方法作为对照组, 在实验阶段用于比较.
在本文中, 我们研究了预测不确定性与对抗鲁棒性的关系, 并得出以下结论: 预测不确定性越大, 则模型的对抗鲁棒性越好. 我们认为: 用交叉熵训练得到的模型边界并不完美, 为了使得交叉熵最小化, 可能使得一些类的分类面变得狭隘, 导致这些类的样本容易受到对抗攻击的影响. 而如果我们在训练模型的同时最大化输出的信息熵, 可以使得模型的分类面更加平衡, 模型分类面边界与每一类数据的距离都尽可能地远, 从而使得攻击者更难对样本进行攻击. 在此基础上, 我们提出一种新的增强对抗鲁棒性的方法, 通过增加模型预测的不确定性, 以达到提高鲁棒性的目的. 我们在保证模型准确率的同时, 使得模型预测的信息熵变得更大. 我们在MNIST、CIFAR-10和CIFAR-100数据集上都做了相应的实验, 并采用白盒攻击来评估模型的鲁棒性. 为了更为全面地评估我们的方法, 采用了3种类型的p-范数距离来控制扰动大小. 大量实验和简化的模型推导, 都证实了对抗鲁棒性随模型预测不确定性的增加而增加的统计关系, 验证了本文提出的方法的有效性. 最后, 本文提出的方法也可结合对抗训练, 进一步了提高模型对抗鲁棒性.
本文的贡献可总结如下:
(1) 我们研究了不确定性与对抗鲁棒性的关系, 并得出结论: 模型预测的不确定性越大, 则对抗鲁棒性越好;
(2) 从不确定性和鲁棒性的关系出发, 我们提出一种新的度量模型鲁棒性的方法;
(3) 基于上面的发现, 我们提出了一个新的方法用于提高模型鲁棒性. 该方法能在不降低模型预测干净样本能力的同时, 提高模型的信息熵, 从而达到提高模型对抗鲁棒性的效果. 此外, 将我们的方法与对抗训练结合, 也能比正常对抗训练得到更好的对抗鲁棒性;
(4) 我们从实验上证明了所提出方法的有效性. 在MNIST、CIFAR-10和CIFAR-100数据集上做的大量实验结果显示, 我们的方法的确能显著提高模型的对抗鲁棒性.
本文第1节介绍对抗样本的概念, 并总结一些对抗攻击以及对抗防御的方法. 第2节简单介绍不确定性的相关概念, 并进一步细化到深度学习中的不确定性以及不确定性对模型鲁棒性的影响. 第3节研究预测不确定性与对抗鲁棒性的关系, 并从理论上推导出它们之间的关系, 基于不确定性给出一个提高模型鲁棒性的方法; 同时, 我们用一个简单的例子解释其原理. 第4节分别利用交叉熵、GCE以及我们的方法训练模型, 通过比较多种攻击下模型的准确率, 验证我们所提方法的有效性. 最后对全文进行总结.
1 相关工作Szegedy等人[9]首次发现神经网络存在对抗样本后, 许多学者发布了相关研究[1, 4, 10-14]. 对抗样本指的是攻击者将对于人类无法察觉的扰动添加到样本上, 使得模型对于原本能正确分类的样本进行错误分类[15]. 为了量化这种不可察觉性, 我们一般将扰动的不可察觉性转换为对于所加扰动δ的Lp范数上的限制ε. 对抗样本是在原样本x上加入了一定限制的扰动, 而且, 增加扰动后, 会导致模型f进行误分类. 我们用以下集合表示对抗样本:
A(x)={x+δ|f(x+δ)≠f(x),‖ | (2) |
其中, ε表示最大扰动限制.
1.1 对抗攻击在对抗攻击中, 我们把对抗样本的不可察觉性转化为对于扰动大小的限制, 通过p-范数距离来控制扰动的大小, 常见的有L0、L2和L∞这3种常用的Lp度量[16]. 其中, L0距离表示对抗样本中被修改的像素的数量, L2距离为原样本与对抗样本之间的欧氏距离, L∞距离表示对抗样本中所有像素最大的改变值.
现有的对抗攻击基本都是基于上面所述的度量方式, FGSM[1]就是一种典型的L∞度量的攻击, 在原样本的基础上, 沿Loss函数的梯度的符号函数方向加入扰动, 并用L∞范数控制该扰动大小, 从而实现使模型对于对抗样本的原标签的损失变大的目的. JSMA[11]是一种L0度量的攻击, 该方法使用雅可比矩阵构造显著图, 以选择每次迭代时要修改的像素. 该方法根据修改的像素个数来度量扰动大小. Carlini等人[10]提出了基于几种距离度量方式的优化式用于产生对抗样本, 这里, 我们使用的是其中一种, 在优化式中, 对于扰动的限制用的是L2距离. 此外, 还有一些方法基于这几种度量方式都能进行攻击, 比如BIM[17]、MIM[18]、PGD[4]攻击. 这些方法都是一些迭代的攻击方法, 每次的迭代步伐用的是L∞距离度量, 它们的每次迭代都是一次小步伐的FGSM攻击. BIM就是一种最基本的小步伐的迭代FGSM. MIM在BIM的基础上加入了动量, 以提高攻击的成功率. PGD在BIM的基础上加入了random start, 即每次攻击前, 在样本中加入一些噪音再进行攻击, 并被证明是一阶导攻击方法中最强大的一种. 这几种方法可以使用3种度量方式中的一种来控制总的扰动.
1.2 对抗防御提高模型的对抗鲁棒性, 要比产生对抗样本更加困难. 许多研究提出了防御方法以提高模型的对抗鲁棒性, 常见的方法有对抗训练、修改输入、添加正则项等[19].
对抗训练是一种数据增强的方式, 主要做法就是在训练集中添加对抗样本, 并重新训练模型. 直观上来说, 这样做可以使得模型学得对抗样本的特征, 对于这种攻击方法产生的对抗样本会有更好的鲁棒性, 对于其他攻击方法的对抗样本也有一定的泛化能力. Goodfellow等人[1]首次将用FGSM攻击生成的对抗样本加入到训练样本中, 并证实了这种做法的确能够提高鲁棒性. Madry等人[4]提出了projected gradient descent (PGD)攻击方法, 将其用于对抗训练, 并证明只要能抵抗该种攻击方法, 就能防御其余利用first-order信息的攻击方法, 该方法也是目前唯一没有被攻破的防御方法. 此外, Madry等人还将对抗训练转化成一个鞍点问题. 之后的对抗训练方法大部分都是基于该方法, 比如: Cheng等人[5]在对抗训练中自适应地调整扰动大小以及训练的标签, 解决干净样本到对抗样本的泛化问题; Zhang等人[20]得到了对抗样本的预测误差上界, 将它用于改进对抗训练方法, 并能很好地在对抗鲁棒性以及干净样本准确率之间取得平衡.
但是, 如果我们需要更好的对抗鲁棒性, 则需要的内部优化时间会更长, 现在也有大量的工作致力于减少对抗训练的时间[21]. Shafahi等人[22]通过回收在更新模型参数时计算出的梯度信息来减少生成对抗样本的开销成本, 并证明这种方法能够得到与Madry等人[4]所提方法差不多的性能, 同时时间更短. Wong等人[23]证明: 可以使用更弱、代价更小的攻击来训练更为鲁棒的模型. 他们证明: 结合了随机初始化的FGSM对抗训练与基于PGD的训练一样有效, 但却可以大大降低时间成本.
虽然前面所提方法的确能够缩短对抗训练的时间, 但相比正常训练, 对抗训练所需要的时间还是要远远超过正常训练所需要的时间. 而添加正则项是通过在成本函数中添加类似于惩罚项的正则项来提高目标模型的泛化能力, 并使模型具有良好的适应性, 以抵抗预测中未知数据集的攻击. Ma等人[24]提出的正则项是鲁棒优化目标式的最大上界, 即该正则项为公式(1)中最小-最大化问题中最大化问题的上界. 他们用正则项来代替产生对抗样本的过程, 从而大大节约了训练时间. Jin等人[25]发现了局部稳定与manifold regularization的关系, 并提出一个新的正则化项来训练对一类局部扰动稳定的深度神经网络. 这种防御方法与对抗训练相比的好处在于: 因为对抗训练需要生成对抗样本来加入到训练集中, 而且普遍来说, 越强大的攻击得到的样本加入到训练中效果会越好, 但越强的攻击同时也代表需要耗费更多的时间. 如果仅是添加正则项用于训练, 其时间复杂度与正常训练差不多, 但也能得到提高鲁棒性的效果, 而且原则上能提高所有攻击方法下的鲁棒性.
Chen等人[8]通过最大化不正确类的信息熵, 即最大化不正确类之间预测的不确定性, 达到摊平不正确类间概率的效果, 使得模型对于正确类的预测更加置信, 从而提高模型的鲁棒性. 他们提出一个Guided项来达到最大化不正确类间熵的目的, 该方法在损失函数中加入了惩罚项, 以提高模型对于对抗样本的泛化能力. 但只是直观上描述这样可以提高对抗鲁棒性. 本文从理论上推导出预测不确定性与对抗鲁棒性的关系, 并在这一基础上提出了一个新的提高模型鲁棒性的方法. 与该方法类似, 我们也是通过正则项使得模型的信息熵变大, 从而达到提高模型对抗鲁棒性的效果. 但我们的方法区别在于: 不仅仅是摊平不正确类的概率, 同时也允许正确类的预测的概率变低. 相比于模型对正确分类的置信度, 我们更着重于提高模型的对抗鲁棒性.
2 不确定性在本节中, 我们会介绍一些不确定性的定义, 并对机器学习中的不确定性进行分类. 之后, 我们再研究不确定性在深度学习中的应用, 并将深度学习中的不确定性再次细分. 最后, 介绍一种预测不确定性的度量, 以及该度量在深度学习和提高对抗鲁棒性方面的应用.
2.1 不确定性的定义不确定性指的是涉及不完全或未知信息的认知情况, 它适用于对未来事件的预测——已经进行的物理测量或未知的事物.
2.2 不确定性的分类机器学习中, 有多种不同形式的不确定性. 某些不确定性的概念描述了我们可预期的事件固有的随机性, 比如抛硬币的结果, 而另一些概念则描述了模型推理结果的不可靠性[26]. 一般来说, 我们将不确定性分为以下几种类型.
(1) 偶然事件不确定性: 在收集数据的过程中包含着随机性, 且这些随机性无法通过收集更多的数据来消除[26]. 比如: 我们目前有的数据是温度, 但这些数据的收集过程可能由于仪器精度问题, 会与真实气温有一点偏差. 这就是偶然事件不确定性;
(2) 认知不确定性: 认知不确定性衡量了我们模型预测的信息缺乏程度. 如果测试数据与训练数据的距离越远, 则这些数据的预测应该有更高的标准差. 与偶然事件不确定性的差异是: 通过收集更多数据和减少模型缺乏知识的区域, 可以降低认知不确定性[26]. 比如在气温预测中, 一般温度都是在20-30度, 但是有几天的数据为15-20度, 模型可能无法处理这样的信息. 我们可以通过收集更多包含15-20度的数据来训练模型;
(3) 超出分布的不确定性: 一般来说, 训练的模型是用于处理专门的任务的. 如果我们将湿度的数据提供给用于预测气温的模型, 那么预测结果很可能不如气温预测那么准确, 甚至毫无意义.
2.3 深度学习中的不确定性 2.3.1 不确定性在深度学习中的分类不确定性在深度学习中到处可见, 在我们训练模型的各个阶段都存在不确定性, 比如: 数据预处理时, 我们无法确定应该如何填充数据, 选择什么特征或者是否应该正则化; 在设计模型时, 我们应该选择什么样的模型结构, 什么样的方式用于训练; 即使是在测试时, 如果有多个训练好的模型, 选择哪一个模型用于测试也充满了不确定性. 最后, 对于模型预测的结果, 我们也并不是百分百确信, 这里也包含着不确定性[27].
因此, 在深度学习中, 我们将不确定性再次细分为以下几类.
(1) 模型的不确定性: 为了训练同一个任务, 有多种模型可以用于选择. 比如训练CIFAR-10数据集时, 可以选择VGG或者ResNet模型, 都可以达到很不错的效果, 但选择哪一个模型, 其泛化能力或者其他方面的性能要更好一点, 模型的选择包含了不确定性; 其次, 即使我们选定了模型, 对于同样的任务, 用同一个模型训练了好几次, 得到的模型参数也可能会完全不同, 如何选择参数用于测试也包含不确定性;
(2) 数据的不确定性: 训练中所收集到的数据可能是包含噪音的. 正如上文所说, 数据收集过程中, 本身就包含着一些随机性. 在训练过程中, 这些随机性可能成为噪音, 影响我们最终的训练结果;
(3) 预测的不确定性: 模型观察到的标签也是不确定的, 对于一张猫的图片, 预测的结果可能是: 60%可能性是猫, 40%可能性是狗. 虽然最后预测的结果是猫, 这里预测的不确定性很大.
2.3.2 信息熵信息熵最早是由香农[6]提出的, 用于解决对于信息的量化度量问题. 当我们不知道某事物具体状态, 却知道它有几种可能性时, 显然, 可能性种类越多, 不确定性也会越大, 因为我们更难确认其状态. 当我们最终得知了该事物的状态, 相当于从中就得到了关于该事物的信息. 对于越不确定的事物, 我们从中能得到的信息就越多, 从该事物能获得的信息量越大, 其中某个问题的所有可能取值的信息量的期望就称为信息熵. Seedat等人[28]提到了4种评估模型不确定性的方式, 其中, 我们可以用信息熵来度量预测的不确定性, 对预测得到的向量计算其信息熵, 用信息熵表示该向量的不确定性. 本文主要考虑预测不确定性的影响, 对于一个向量x, 其信息熵计算公式如下:
H(\mathit{\boldsymbol{x}}) = - \sum\nolimits_{i = 1}^N {{p_i}\log ({p_i})} | (3) |
其中, pi指的是模型预测样本为类别i的置信度.
2.3.3 信息熵对模型的影响在深度学习中, 我们一般用交叉熵来训练模型. 交叉熵是由信息熵引申出的一个概念, 因为仅仅最小化信息熵只能最小化向量的不确定性, 但却无法保证输出的结果收敛到正确的标签, 因此我们常常用交叉熵训练模型, 其计算公式如下:
CEH(\mathit{\boldsymbol{x}}) = - \sum\nolimits_{i = 1}^N {{p_i}\log ({q_i})} | (4) |
其中, pi~P, P表示真实分布, 即样本的label; qi~Q, Q表示预测的分布. 我们用预测的分布Q来拟合真实分布P, 交叉熵衡量了真实分布和预测分布之间的差异.
在一般的训练过程中, 需要最小化交叉熵, 以最小化它们之间的差异. 在这个过程中, 预测的分布会慢慢接近真实分布, 而真实分布仅有一个标签为1, 其余标签都是0. 由信息熵公式可知, 真实分布的信息熵为0. 所以在最小化交叉熵的过程中, 预测结果的信息熵会慢慢变小, 模型输出更为确信, 准确率也会逐渐变高.
2.3.4 Guided complement entropyGuided complement entropy (GCE)是由Chen等人[8]提出的, 他们提出了一个“guide”项对不正确类的模型概率进行中和, 以平衡正确类以及不正确类. 为了使得对于预测的正确类更加确信, 他们将不正确类的概率拉平, 尽可能使得不正确类分布得更加均匀. 他们认为: 对于预测结果更加确信, 可以使得预测的准确率提升, 而且还可以达到提高模型对抗鲁棒性的目的. 而使得不正确类分布更加均匀最理想的情况就是其概率都为1/n, 这种情况对应于这些类预测的信息熵最大化的情况. 为此, 他们提出以下Loss函数用于训练模型:
- \frac{1}{M}\sum\nolimits_{i = 1}^M {\hat y_{ig}^\alpha } \frac{1}{{\log (N - 1)}}\sum\nolimits_{j = 1, j \ne g} {\left( {\frac{{{{\hat y}_{ij}}}}{{1 - {{\hat y}_{ig}}}}} \right)\log \left( {\frac{{{{\hat y}_{ij}}}}{{1 - {{\hat y}_{ig}}}}} \right)} | (5) |
其中, 第1项用于提高模型的准确率; 第2项称为complement loss factor, 通过最小化不正确类的信息熵来摊平不正确类输出的概率; M为训练时一个batch中样本的数量; N为类别数目; g表示正确类.
可以看到: 公式(5)的第2项就是公式(3)的信息熵公式, 只是这里没有将正确类的概率加入运算, 该项的目的是最大化不正确类的熵. 此外, 该表达式用
本节主要研究神经网络的不确定性与对抗鲁棒性的关系. 通过提高模型预测不确定性, 提高模型的对抗鲁棒性. 在阐述该方法有效性的同时, 给予严格的证明. 第3.1节对比了正常训练以及对抗训练的不确定性, 并从实验中观察得到: 模型输出的不确定性越大, 则对抗鲁棒性越好. 第3.2节中, 从不确定性与鲁棒性的关系角度出发, 定义一种新的度量模型鲁棒性的方法. 第3.3节在第3.2节中提出的新度量的基础上, 提出一种新的训练方法以提高鲁棒性. 最后, 在第3.4节中, 给出一个简单的例子解释我们的方法的有效性.
3.1 预测不确定性与对抗鲁棒性定义如第2.3.1节所述, 预测不确定性反映了模型对于预测结果的置信度, 对于最终的预测结果越确信, 则模型的预测不确定性越低; 反之, 则不确定性越高. 文中我们用信息熵表示预测不确定性, 信息熵越大, 则预测不确定性越大. 对抗鲁棒性表示模型抵抗对抗样本的能力, 受对抗样本影响程度越小, 则对抗鲁棒性越高. 文中我们用多种对抗攻击下模型的识别准确率来评估模型的对抗鲁棒性, 如果准确率越高, 则对抗鲁棒性越高.
3.2 正常训练以及对抗训练的不确定性对比从第2.3.3节可知, 最小化交叉熵会使模型的输出结果的信息熵越来越小. 而且直观上来说, 预测更加确信, 显得模型更加稳定. 但是在实际中发现: 从对抗鲁棒性的角度上看, 信息熵并不是越小越好, 在保证两个模型准确率相差不多的情况下, 输出结果的信息熵越大的模型, 其对抗鲁棒性往往要更优.
图 1和图 2分别为LeNet-5对于MNIST数据集中正常样本以及用FGSM生成的对抗样本的输出结果分布(为了更直观, 我们省略了正确类的概率), 图中橙色代表的是对抗训练模型的输出分布, 蓝色代表的是正常训练模型分布. 可以看到: 正常训练的模型, 其不正确类概率大部分分布在0附近. 经过对抗训练后的模型, 无论是对于正常样本或者是对抗样本, 其预测都会变得更加保守, 对于模型输出结果中正确的类, 其置信度要稍微低于正常训练的模型. 从熵的角度来说, 就是模型输出结果的信息熵会更大一些. 因此, 我们用公式(3)计算了一下对抗训练以及正常训练的样本平均信息熵, 用PGD进行对抗训练后模型预测平均信息熵为0.506 7, 相比于正常训练的平均信息熵0.063 7, 对抗训练后信息熵要比正常训练后的模型更大, 模型的预测结果会更加保守. 而且对抗训练中学习了对抗样本的特征, 其对抗鲁棒性当然也会更好. 根据这个现象, 我们提出以下两个观点.
![]() |
图 1 正常训练以及对抗训练下的LeNet模型预测正常样本输出概率分布图 |
![]() |
图 2 正常训练以及对抗训练下的LeNet模型预测对抗样本输出概率分布图 |
(1) 对抗训练会使得模型的输出更加保守, 使得模型输出分布得更加均匀, 对抗训练不会像正常训练得到的模型一样, 对于模型输出有很高的置信度. 这意味着, 对抗训练会提高模型输出结果的熵. 因此, 本文将尝试提高模型预测不确定性, 从而提高模型对抗鲁棒性.
(2) 在训练中, 并不是使得熵越小越好. 因为训练过程中为了最小化信息熵, 可能使得某个类或者几个类的分类面变得狭隘, 这样对这些类进行攻击会变得更加容易. 因此, 我们可以使用一些相对更小的扰动, 使得模型被误分类为另一个类. 具体的我们会在第3.4节进行阐述.
3.3 一种新的度量模型对抗鲁棒性的方法正如第3.2节中所述, 我们观察到: 模型具有更好的鲁棒性, 则其输出结果的信息熵越大. 接下来, 我们将从不确定性与鲁棒性的关系出发, 定义一种新的度量模型鲁棒性的方法.
我们用不确定性去衡量样本点到决策边界的距离程度. 如果样本点距离某一类的边界越近, 则表示样本点对该类的输出的概率越高, 且样本被错分成该类的可能性越大, 也就是可以用更小的扰动ε使得模型误分类. 因此, 我们希望样本点对所有错误类的预测的置信度越低越好, 使得样本点距离分类边界都有足够长的距离. 假设样本相对位置是不变的, 分类面边界的位置也相对确定, 但我们可以对分类面边界做出小范围的改变. 为了保证样本与所有分类边界之间都有足够长的距离, 一般我们常用的做法是最小化信息熵, 但这样得到的分类面并不完美. 为了使得信息熵最小化, 可能使得某些类的样本分类面变得狭隘, 样本与某个分类边界之间的距离太近, 因此容易被攻击, 如图 3中中间类的样本. 我们用信息熵表示距离, 当样本距离某些不正确类边界较近时, 模型输出的信息熵较低, 但容易受到对抗攻击. 与之相反, 当某个样本与其他类分类边界距离越远, 此时模型输出的信息熵越大, 样本也不容易受到对抗攻击. 因此, 我们通过最大化不正确类间的信息熵来保证分类面边界不会产生偏移, 即牺牲样本与一些分类边界之间的距离, 使得样本距离所有边界都足够远, 从而达到提高鲁棒性的效果. 定义:
{U(\mathit{\boldsymbol{x}}) = - \sum\nolimits_{i \ne y} {{f_i}(\mathit{\boldsymbol{x}})\log {f_i}(\mathit{\boldsymbol{x}})} } | (6) |
![]() |
图 3 随机生成的样本示例图 |
其中, U(x)表示样本x对不正确类的不确定性程度, y表示样本x的标签, fi表示模型f输出x为类别i的概率. 保持正确类的概率不变时, U(x)越大, 则样本x越不容易受到对抗攻击.
如上文所说, 我们不仅要考虑样本点与边界的问题, 同时还需要考虑扰动ε的大小, ε越大, 产生对抗样本越容易. 定义ri=r(x(i), y(i); f)为模型f在样本(x(i), y(i))上的对抗鲁棒性, 考虑所有被正确预测的点, 我们有:
{{r_i} = \frac{{U({\mathit{\boldsymbol{x}}^{(i)}})}}{\varepsilon }I(\arg {{\max }_k}{f_k}({\mathit{\boldsymbol{x}}^{(i)}}) = = {y^{(i)}}), i = 1, ..., M} | (7) |
显然, ri越大, 则模型的对抗鲁棒性越好. 为了简洁, 记
\begin{array}{l} {r_i} = \frac{{ - \sum\limits_{i \ne y} {{f_i}({x^{(i)}})\log {f_i}({x^{(i)}})} }}{\varepsilon }I(\arg {\max _{{x_k}}}{f_k}({x^{(i)}} = = {y^{(i)}}))\\ \;\;\; = \frac{{ - \sum\limits_i {{f_i}({x^{(i)}})\log {f_i}({x^{(i)}})} + {f_y}({x^{(i)}})\log {f_y}({x^{(i)}})}}{\varepsilon }I(\arg {\max _{{x_k}}}{f_k}({x^{(i)}} = = {y^{(i)}}))\\ \;\;\;= \frac{{H(f) \cdot I({f_{pred}}({\mathit{\boldsymbol{x}}^{(i)}}) = = {y^{(i)}}) + {f_y}({\mathit{\boldsymbol{x}}^{(i)}})\log {f_y}({\mathit{\boldsymbol{x}}^{(i)}}) \cdot I({y_{pred}}({\mathit{\boldsymbol{x}}^{(i)}}) = = {y^{(i)}})}}{\varepsilon }\\ \;\;\;= \frac{{H(f) \cdot I({f_{pred}}({\mathit{\boldsymbol{x}}^{(i)}}) = = {y^{(i)}}) - {f_y}({\mathit{\boldsymbol{x}}^{(i)}})Entropy(f({\mathit{\boldsymbol{x}}^{(i)}}), {y^{(i)}})}}{\varepsilon } \end{array} | (8) |
则模型对所有样本的鲁棒性之和为
于是, 寻找一个具有对抗鲁棒性的模型可描述成如下优化问题:
\left. \begin{array}{l} \max {\rm{ }}r\\ {\rm{s}}{\rm{.t}}{\rm{. }}({\mathit{\boldsymbol{x}}^{(i)}}, {y^{(i)}}) \in D \end{array} \right\} | (9) |
因为ε是一个定值, 所以公式(9)可以改写成:
\left. \begin{array}{l} \max {\rm{ }}\sum\limits_i^M {H({f^{(i)}})} - {f_{{y^{(i)}}}}({\mathit{\boldsymbol{x}}^{(i)}})Entropy(f({\mathit{\boldsymbol{x}}^{(i)}}), {y^{(i)}})\\ {\rm{s}}{\rm{.t}}{\rm{. }}({\mathit{\boldsymbol{x}}^{(i)}}, {y^{(i)}}) \in D\\ \arg \max {\rm{ }}{x_k}{f_k}({\mathit{\boldsymbol{x}}^{(i)}}) = = y \end{array} \right\} | (10) |
将公式(10)改成极小化问题:
\left. \begin{array}{l} \min {\rm{ }}{f_{{y^{(i)}}}}({\mathit{\boldsymbol{x}}^{(i)}})Entropy(f({\mathit{\boldsymbol{x}}^{(i)}}), {y^{(i)}}) - \sum\limits_i^M {H({f^{(i)}})} \\ {\rm{s}}{\rm{.t}}{\rm{. }}({\mathit{\boldsymbol{x}}^{(i)}}, {y^{(i)}}) \in D\\ \arg \max {\rm{ }}{x_k}{f_k}({\mathit{\boldsymbol{x}}^{(i)}}) = = y \end{array} \right\} | (11) |
其中, 第1项是关于交叉熵的一个函数, 第2项是模型输出的信息熵. 从公式(11)明显可见: 信息熵H(f(i))越大, 目标函数越小, 即鲁棒性越强.
因为f通常是一个非凸函数, 因此求解公式(11)是一件比较困难的事情. 下面我们将给出一个定理, 根据该定理, 可以得到公式(11)的一个下确界.
定理1. 设N为问题的类别数目, M为样本数量, p=f(x), t=argmax xkfk(x).
不妨令
证明: 当正确类概率p确定时, 有:
\begin{array}{l} \sum\nolimits_i^M {{f_{{y^{(i)}}}}({\mathit{\boldsymbol{x}}^{(i)}})} Entropy(f({\mathit{\boldsymbol{x}}^{(i)}}), {y^{(i)}}) - H({f^{(i)}})\\ = \sum\nolimits_i^M {\sum\nolimits_{k \ne {y^{(i)}}}^N {{f_k}({\mathit{\boldsymbol{x}}^{(i)}})\log ({f_k}({\mathit{\boldsymbol{x}}^{(i)}}))} } \\ \le \sum\nolimits_i^M {(N - 1) \cdot \frac{{1 - p}}{{N - 1}}\log \left( {\frac{{1 - p}}{{N - 1}}} \right)} \\ \le \sum\nolimits_i^M {(1 - p) \cdot \log \left( {\frac{{1 - p}}{{N - 1}}} \right)} \end{array} | (12) |
记
\frac{{{\rm{d}}T}}{{{\rm{d}}p}} = - \log \left( {\frac{{1 - p}}{{N - 1}}} \right) - 1 = \log \left( {\frac{{N - 1}}{{1 - p}}} \right) - 1 | (13) |
因为
\frac{{{\rm{d}}T}}{{{\rm{d}}p}} = \log \left( {\frac{{N - 1}}{{1 - p}}} \right) - 1 > \log \left( {(N - 1) \cdot \frac{N}{{N - 1}}} \right) - 1 = \log (N) - 1 | (14) |
又因为K > 2, 所以
(11) = \sum\nolimits_i^M {(1 - p) \cdot \log \left( {\frac{{1 - p}}{{N - 1}}} \right)} > \sum\nolimits_i^M {\frac{{N - 1}}{K} \cdot \log \frac{1}{N}} | (15) |
证毕.
3.4 基于不确定性增大的鲁棒性提高方法根据定理1可得, 公式(11)存在下确界, 故用公式(11)作为损失函数最终能使网络收敛. 但我们在实验中发现: 直接用公式(11)作为网络的损失函数, 会导致网络收敛速度慢甚至很难收敛. 为了加快收敛速度, 我们提出一个改进的损失函数:
\sum\nolimits_i^M {Entropy(f({\mathit{\boldsymbol{x}}^{(i)}}), {y^{(i)}}) - \alpha \times H({f^{(i)}})} | (16) |
其中, α是超参数. 显然有, 公式(16)≥公式(11), 即公式(16)同样存在一个下确界. 第1项为公式(4)中提到的交叉熵, 用于训练模型使其能正确分类干净样本; 第2项为我们所提出的正则项, 即公式(3)的信息熵计算公式, 通过添加该项, 在训练中, 我们可以提高所训练的模型预测的信息熵. 并用α控制信息熵对于模型的影响, M表示每个batch中的样本数量, N表示分类任务类别数. 其训练过程伪代码如下所示.
算法1. 训练过程.
Input: 模型f, batchsize m, 学习率λ, 正则项系数α以及训练的周期数n;
Output: 模型f的权重θ.
1 随机初始化模型f的权重θ;
2 初始化数据集
3 for i←1 to n do
4 or j←1 to B do //B表示batch的数目, 即B=len(D)/M
5 从数据集D中取出M个样本,
6 计算交叉熵
7 计算正则项
8 L=l1-α×l2;
9 更新网络参数θ←θ-λ▽L;
10 end for
11 end for
12 return (θ)
利用算法1在MNIST和CIFAR-10数据集上分别训练LeNet-5和ResNet-18模型, 得到的模型结果见表 1. 可以看到: 我们的方法在保证模型训练准确率的同时, 能够大大提高模型预测的熵.
![]() |
表 1 分别使用交叉熵以及我们的方法训练得到的模型对比 |
在本节中, 关于信息熵对于对抗鲁棒性的影响会给出一个直观的解释. 我们在一个二维平面上随机生成两类样本, 中间蓝色的圆点为正类, 周围橙色的三角点为负类, 如图 3所示. 之后, 我们用一个包含一层隐藏层的全连接网络训练这些数据. 为了阐述我们所提方法与交叉熵的不同, 用交叉熵以及我们的方法分别训练了一个模型, 其对应的分类边界如图 4和图 5所示.
![]() |
图 4 用交叉熵训练得到的分类面示意图 |
![]() |
图 5 我们的方法训练得到的分类面示意图 |
对比图 4和图 5可以看到: 在最小化交叉熵的过程中, 可能会使得某个类的分类面变得狭隘. 这样虽然整体的交叉熵很小, 结果看起来拟合得很好, 但实际上, 如果我们对样本加入一些微小的扰动, 则样本很容易跨过分类面边界, 导致模型误分类. 而如图 5所示: 我们的方法在保证模型分类正确的同时, 最大化模型预测的信息熵, 并且, 在保证模型分类任务的同时, 尽可能地使得模型的分类边界处于类别间的一个平衡位置, 分类边界与不同类的样本间的距离尽可能差不多. 因此, 当我们攻击时, 在样本中加入一些微小的扰动, 在交叉熵训练的分类器下可能会造成误分类, 但是我们的方法可以使得模型边界更均衡, 更难受到对抗攻击的影响. 或者说, 需要更大的扰动才能造成模型误分类. 同时, 由图 4和图 5可以看到: 更加均衡的分类面, 可以使得模型将原本错误分类的样本正确分类. 这也是我们在一些情况下, 准确率比交叉熵训练要高的原因.
4 实验设计与比较我们用MNIST[29]、CIFAR-10[30]和CIFAR-100[30]数据集验证所提出的方法. 在多种攻击方法下, 查看模型的准确率, 并以准确率作为鲁棒性的估计. 并且采用了白盒攻击用于评估我们的模型, 因为我们认为, 这是所有攻击中最具有挑战性同时也是最难防御的攻击模式. 攻击者能够获取到模型的所有信息, 比如参数、梯度、输出等等.
4.1 数据集介绍MNIST数据集包含60 000个训练样本和10 000个测试样本, 每个样本都是28×28的灰度手写数字图像, 数据集中共包含10类样本, 分别为0-9. CIFAR-10数据集是一个更接近普适物体的彩色图像数据集, 其中包含10类的样本, 每一类的样本包含5 000个训练样本以及1 000个测试样本, 共有50 000个训练样本以及10 000个测试样本, 每个样本都是32×32×3的彩色图像. CIFAR-100与CIFAR-10相似, 但其包含100类的样本, 每类包含500个训练以及100个测试样本. 并选用LeNet-5[31]来训练MNIST数据集, ResNet18[32]来训练CIFAR训练集. 同时, 为了增强数据以得到更好的结果, 对于两个CIFAR数据集, 在训练时加入了水平翻转以及随机裁剪的操作.
4.2 攻击方法为了验证模型的性能, 我们选用了3种范数限制的攻击方式, 即L0、L2和L∞攻击. 对于L∞攻击, 我们使用FGSM[1]、BIM[17]、MIM[18]、PGD[4]; 对于L2攻击, 我们使用了CW攻击[10]; 对于L0攻击, 我们使用的是JSMA攻击[11]. 攻击参数设置方面, 对于MNIST数据集、CIFAR-10和CIFAR-100数据集, 我们都按照文献[4]中提及的参数进行攻击. 在MNIST数据集中, 设置为0.3, 对于迭代的攻击, 我们将每次迭代的步伐设置为0.01, 在BIM中, 将迭代次数设置为10, MIM和PGD中设置为40. 对于CIFAR-10和CIFAR-100数据集, 我们将ε设置为8/255, 对于迭代的攻击, 我们将迭代的步伐设置为1/255, 在BIM中, 迭代次数设置为10, MIM和PGD中设置为40. 在CW攻击中, 我们统一将confidence设置为0, 学习率设为0.01, 初始常数设置为0.001, 且最大的迭代次数设置为1 000. 为了便于复现, 文中所有的攻击方法, 我们使用文献[33]中的攻击源码.
4.3 超参数设置我们选用随机梯度下降(stochastic gradient descent)方法用于优化, 对于LeNet-5模型, 训练20个周期, 学习率设为0.01, 动量设为0.9. 对于ResNet-18模型, 我们选用了学习率衰减的方式, 共训练240周期, 其中, 第1-135周期学习率为0.1, 第136-185周期学习率为0.01, 第186-240周期学习率为0.001. 动量设置为0.9, 并将weight decay设置为0.000 5.
关于正则项系数的选择, 我们比较了不同系数在MNIST和CIFAR-10数据集中几种攻击方法下的表现. 实验中所使用的模型以及攻击方法参数的设置与前文所述一致. 由表 2可以得到以下结论: 加入了正则项后的模型, 对抗鲁棒性总是优于正常训练的模型, 而且在普通样本上能保持与正常训练相近的准确率. 但是由于α的设置是一个很复杂的问题, 理论上尚不能明确给出其最优值, 因此我们通过实验比较得到. 实验结果表明: 在MNIST数据集中, 当α=1时, 尽管在PGD攻击下提升效果并不是最优的, 但在大部分攻击下都能得到更好的鲁棒性. 因此, 文中我们把α设置为1. 而在CIFAR-10数据集中, 实验结果表明: 当α=4时, 其对抗鲁棒性要更好. 因此, 实验中我们将其设置为4.
![]() |
表 2 MNIST和CIFAR-10数据集中在不同α设置下的对抗鲁棒性 |
我们训练出用交叉熵作为损失函数以及用第2.3.4节中提到的GCE作为损失函数, 分别训练出模型用于对比, 以此显示出我们所提出方法的有效性. 训练中, 参数都如第4.3节中所提到的, GCE中的α我们用的是文献[3]实验中所使用的0.333.
4.5 实验结果 4.5.1 正常训练我们用所提出的损失函数来训练MNIST、CIFAR-10和CIFAR-100数据集上的模型, 得到的结果分别见表 3-表 5.
![]() |
表 3 正常训练MNIST数据集中在各种攻击方法下的识别准确率 |
![]() |
表 4 正常训练CIFAR-10数据集中在各种攻击方法下的识别准确率 |
![]() |
表 5 正常训练CIFAR-100数据集中在各种攻击方法下的识别准确率 |
正如表 3所示: 在MNIST数据集下, 我们所提出方法基本在所有攻击方法上都提高了一定的抵抗能力; 特别是FGSM等用L∞距离限制的攻击方法, 在这些方法中, 性能不但优于正常训练的模型, 对比于GCE损失函数训练的模型也有更优的性能. 在FGSM以及BMI攻击下, 我们的方法对于对抗样本识别的准确率接近于GCE模型的2倍. 在MIM攻击下, 普通训练基本无法抵抗这个攻击, 但我们的方法较好地识别了这些样本, 远超过普通训练的模型, 也远远要比GCE训练的模型要好. PGD是利用一阶导信息最强的其中一种攻击, 我们的模型能够保证一定的准确率, 也要比GCE鲁棒性要更好一点. 这里证明了我们方法的有效性. 但在JSMA和C & W两个方法下, 我们的方法没有GCE Loss好, 但是对比于正常训练的模型, 我们的方法还是能够大大提升模型的对抗鲁棒性的; 而且JSMA与C & W两种攻击方法所需要的时间也远远大于前面的方法, 攻击效果自然也会更好.
我们的方法在CIFAR-10数据集中的表现要更加优秀, 见表 4. 在大部分攻击下, 与MNIST数据集中一致. 但在这个数据集下, 无论是L0、L2或是L∞限制的方法, 我们的方法都能有效地提高模型的对抗鲁棒性. 且在大部分情况下, 都要远远优于GCE训练的模型. 在FGSM方法下, GCE所得到的模型也仅仅只能提高一点点的准确率, 但我们的方法提升了25%的识别准确率. 在BIM、MIM以及PGD方法下, 普通训练完全无法抵抗该攻击, GCE也仅仅只能提高一点点的准确率, 甚至可以说无法提升, 但我们的方法依然能够大大地提高识别准确率, 即使是在PGD方法下, 也能提高20%的识别准确率. 而且在JSMA下, 与MNIST数据集不同, 我们的方法要比GCE方法的鲁棒性更强. 但在C & W攻击下, 与MNIST数据集结果一致, 我们的方法还是没有GCE得到的模型要好.
在CIFAR-100上样本类别数变多, 防御也变得更加困难, 在大多数情况下, 我们的方法都能很好地提高模型的对抗鲁棒性. 但是由于攻击时间过长, CIFAR-100中并没有加入JSMA攻击的实验结果. 从表 5中已有的数据仍然可以得到以下结论: 对于更复杂的数据集, 我们的方法能够保持一定的有效性.
4.5.2 对抗训练我们在第1.2节中介绍了对抗训练, 对抗训练的初衷是产生一些对抗样本, 并作为训练样本重新训练模型, 希望模型学到对抗样本的特征并对这些样本正确分类, 同时获得对其他对抗样本的对抗鲁棒性. 目前已经提出了很多对抗训练的框架[4, 20, 34], 这里我们选择的是文献[4]中提出的攻击方法PGD, 并用该方法产生对抗样本用于对抗训练, 因为PGD方法是first-order攻击中最强的一种攻击. 我们将所提方法与用PGD方法进行对抗训练的框架结合, 结果表明: 我们的方法可以比正常对抗训练得到更好的结果.
这里, 对于我们方法中(见公式(6))的正则项系数α, 在MNIST的对抗训练中, 我们设为了0.8. 在CIFAR- 10中, 与第4.3节中提到的不同, 我们设置为1.
对于训练中的其他细节, 我们使用的模型以及参数如第4.3节中所提到的. 对抗训练过程与文献[6]中的训练过程相同, 我们加载了第4.5.1节中的训练模型, 并在这些模型的基础上产生对抗样本并重新训练模型. 对于MNIST数据集, 我们继续训练了10周期, 并将学习率设为0.01, 动量设为0.9. 在PGD攻击方法中, 我们把迭代次数设为40, 迭代步伐设为0.1, 将总的扰动限制设为0.3. 对于CIFAR-10数据集, 我们训练了40个周期, 学习率设为0.001, 动量设为0.9, 并将weight decay设为0.000 5. 对于CIFAR-10的PGD攻击, 我们把迭代次数设为7, 迭代步伐设为2/255, 总的扰动限制设为8/255. 实验结果显示, 我们的方法结合对抗训练能得到更强的对抗鲁棒性, 见表 6.
![]() |
表 6 对抗训练MNIST和CIFAR-10数据集在各种攻击方法下的识别准确率 |
从表 6中可以看出: 在对抗训练中, 本文所提方法不如正常训练中有那么大的提升, 但相较于用交叉熵进行的对抗训练, 本文所提方法能够在对抗训练的基础上进一步提高模型对抗鲁棒性. 特别是对于JSMA以及C & W两个方法, 在正常训练中, 我们的方法虽然能提高鲁棒性, 但还是无法抵抗这么强的攻击. 这里, MNIST数据集中与正常训练不同, 我们的方法在对抗训练下, 对JSMA以及C & W这两种攻击鲁棒性得到大大的提升, 且要远优于用交叉熵对抗训练的模型. 在CIFAR-10数据集中也是如此, 在所有攻击下, 我们的方法都能得到更好的鲁棒性. 但在CIFAR-10数据集, 即使是进行了对抗训练, 模型还是无法抵抗C & W攻击. 这里, 我们认为是C & W攻击太强了, CIFAR-10的特征维度要比MNIST更多, 因此要防御会更难. 从其他攻击方法的识别准确率也可以看出, CIFAR-10对于对抗样本的准确率总是会低于MNIST数据集. 此外, 对抗训练对于我们的方法提升并不大, 但对抗训练却大大提高了模型在JSMA以及PGD攻击方法下的对抗鲁棒性.
5 总结本文中, 我们研究了模型预测不确定性与对抗鲁棒性的关系. 我们认为: 传统的训练方法虽然对输出置信度很高, 但得到的分类边界并不完美, 容易受到对抗样本的攻击. 而如果在训练模型的同时提高模型输出的信息熵, 使得模型预测不确定性变大, 则可以使得模型的分类面更加平衡, 使得模型分类面边界与每一类数据的距离尽可能地远. 这样, 在对样本进行攻击时, 不会因分类面狭隘导致某类样本极容易受到对抗样本的攻击. 基于上面的结论, 本文提出了一种新的提高模型鲁棒性的方法. 本文通过在MNIST、CIFAR-10和CIFAR-100数据集上的大量实验和简化的模型推导, 都证实了对抗鲁棒性随模型预测不确定性的增加而增加的统计关系, 同时验证了本文提出的方法的有效性. 最后, 本文的方法也可结合对抗训练, 进一步提高模型对抗的鲁棒性.
[1] |
Goodfellow IJ, Shlens J, Szegedy C. Explaining and harnessing adversarial examples. In: Proc. of the 2015 Int'l Conf. on Learning Representations (ICLR). 2015.
|
[2] |
Duan GH, Ma CG, Song L, et al. Research on structure and defense of adversarial example in deep learning. Chinese Journal of Network and Information Security, 2020, 6(2): 1-11 (in Chinese with English abstract).
|
[3] |
Tramèr F, Kurakin A, Papernot N, et al. Ensemble adversarial training: Attacks and defenses. In: Proc. of the 2018 Int'l Conf. on Learning Representations (ICLR). 2018.
|
[4] |
Madry A, Makelov A, Schmidt L, et al. Towards deep learning models resistant to adversarial attacks. arXiv: 1706.06083, 2017.
|
[5] |
Cheng M, Lei Q, Chen PY, et al. Cat: Customized adversarial training for improved robustness. arXiv: 2002.06789, 2020.
|
[6] |
Shannon CE. A mathematical theory of communication. The Bell System Technical Journal, 1948, 27(3): 379-423.
[doi:10.1002/j.1538-7305.1948.tb01338.x] |
[7] |
Shen HJ, Chen SH, Wang R. A study on the uncertainty of convolutional layers in deep neural networks. Int'l Journal of Machine Learning and Cybernetics, 2021, 12: 1853-1865.
[doi:10.1007/s13042-021-01278-9] |
[8] |
Chen HY, Liang JH, Chang SC, et al. Improving adversarial robustness via guided complement entropy. In: Proc. of the IEEE Int'l Conf. on Computer Vision (ICCV). 2019. 4881-4889. [doi: 10.1109/ICCV.2019.00498]
|
[9] |
Xie C, Yuille A. Intriguing properties of adversarial training at scale. In: Proc. of the 2020 Int'l Conf. on Learning Representations (ICLR). 2020.
|
[10] |
Carlini N, Wagner D. Towards evaluating the robustness of neural networks. In: Proc. of the 2017 IEEE Symp. on Security and Privacy (SP). 2017. [doi: 10.1109/SP.2017.49]
|
[11] |
Papernot N, McDaniel P, Jha S, et al. The limitations of deep learning in adversarial settings. In: Proc. of the 2016 IEEE European Symp. on Security and Privacy (EuroS & P). IEEE, 2016. 372-387.
|
[12] |
Zhang WX. Research on the generation of adversarial example based on batch gradient[MS. Thesis]. Wuhan: Huazhong University of Science & Technology, 2019 (in Chinese with English abstract). [doi: 10.27157/d.cnki.ghzku.2019.001227]
|
[13] |
Wang SY, Jin H, Sun JZ. A method for image adversarial samples generating based on GAN. Journal of Frontiers of Computer Science and Technology, 2021, 15(4): 702-711(in Chinese with English abstract).
[doi:10.3778/j.issn.1673-9418.2005022] |
[14] |
Fan CL, Su T, Teng YP, et al. Black box attack optimization algorithm based on differential evolution. Application Research of Computers, 2021, 38(1) (in Chinese with English abstract). http://www.arocmag.com/article/02-2021-01-043.html
|
[15] |
Pan WW, Wang XY, Song ML, Chen C. Survey on generating adversarial examples. Ruan Jian Xue Bao/Journal of Software, 2020, 31(1): 67-81(in Chinese with English abstract).
http://www.jos.org.cn/1000-9825/5884. htm [doi:10.13328/j.cnki.jos.005884] |
[16] |
Yuan X, He P, Zhu Q, et al. Adversarial examples: Attacks and defenses for deep learning. IEEE Trans. on Neural Networks and Learning Systems, 2019, 30(9): 2805-2824.
[doi:10.1109/TNNLS.2018.2886017] |
[17] |
Kurakin A, Goodfellow I, Bengio S. Adversarial machine learning at scale. In: Proc. of the 2017 Int'l Conf. on Learning Representations (ICLR). 2017.
|
[18] |
Dong Y, Liao F, Pang T, et al. Boosting adversarial attacks with momentum. In: Proc. of the IEEE Conf. on Computer Vision and Pattern Recognition (CVPR). 2018. 9185-9193.
|
[19] |
He ZB, Huang XL. Adversarial attacks and defenses against neural networks. Aero Weaponry, 2020, 27(3): 1-19(in Chinese with English abstract).
|
[20] |
Zhang H, Yu Y, Jiao J, et al. Theoretically principled trade-off between robustness and accuracy. In: Proc. of the Int'l Conf. on Machine Learning (ICML). 2019. 7472-7482.
|
[21] |
Vivek BS, Babu RV. Regularizers for single-step adversarial training. arXiv: 2002.00614, 2020.
|
[22] |
Shafahi A, Najibi M, Ghiasi MA, et al. Adversarial training for free! In: Advances in Neural Information Processing Systems (NIPS). 2019. 3358-3369.
|
[23] |
Wong E, Rice L, Kolter JZ. Fast is better than free: Revisiting adversarial training. In: Proc. of the Int'l Conf. on Learning Representations (ICLR). 2020.
|
[24] |
Ma A, Faghri F, Farahmand A. Adversarial robustness through regularization: A second-order approach. arXiv: 2004. 01832, 2020.
|
[25] |
Jin C, Rinard M. Manifold regularization for locally stable deep neural networks. arXiv: 2003.04286, 2020.
|
[26] |
Gal Y. Uncertainty in deep learning[Ph. D. Thesis]. Britain: University of Cambridge, 2016. 62-87. http://mlg.eng.cam.ac.uk/yarin/thesis/thesis.pdf
|
[27] |
Wang X, He Y. Learning from uncertainty for big data: Future analytical challenges and strategies. IEEE Systems, Man, and Cybernetics Magazine, 2016, 2(2): 26-31.
[doi:10.1109/MSMC.2016.2557479] |
[28] |
Seedat N, Kanan C. Towards calibrated and scalable uncertainty representations for neural networks. arXiv: 1911. 00104, 2019.
|
[29] |
Deng L. The MNIST database of handwritten digit images for machine learning research[Best of the Web]. IEEE Signal Processing Magazine, 2012, 29(6): 141-142. [doi: 10.1109/MSP.2012.2211477]
|
[30] |
Krizhevsky A, Hinton G. Learning multiple layers of features from tiny images. Citeseer, 2009.
|
[31] |
LeCun Y, Bottou L, Bengio Y, et al. Gradient-based learning applied to document recognition. Proc. of the IEEE, 1998, 86(11): 2278-2324.
[doi:10.1109/5.726791] |
[32] |
He K, Zhang X, Ren S, et al. Deep residual learning for image recognition. In: Proc. of the IEEE Conf. on Computer Vision and Pattern Recognition (CVPR). 2016. 770-778.
|
[33] |
Ding GW, Wang L, Jin X. AdverTorch v0. 1: An adversarial robustness toolbox based on pytorch. arXiv: 1902.07623, 2019.
|
[34] |
Liu G, Khalil I, Khreishah A. Using single-step adversarial training to defend iterative adversarial examples. arXiv: 2002.09632, 2020.
|
[2] |
段广晗, 马春光, 宋蕾, 武朋. 深度学习中对抗样本的构造及防御研究. 网络与信息安全学报, 2020, 6(2): 1-11.
|
[12] |
张文翔. 基于批量梯度的对抗样本生成方法的研究[硕士学位论文]. 武汉: 华中科技大学, 2019. [doi: 10.27157/d.cnki.ghzku.2019.001227]
|
[13] |
王曙燕, 金航, 孙家泽. GAN图像对抗样本生成方法. 计算机科学与探索, 2021, 15(4): 702-711.
[doi:10.3778/j.issn.1673-9418.2005022] |
[14] |
范纯龙, 宿彤, 滕一平, 王翼新, 丁国辉. 基于差分进化的黑盒攻击优化算法. 计算机应用研究, 2021, 38(1). http://www.arocmag.com/article/02-2021-01-043.html
|
[15] |
潘文雯, 王新宇, 宋明黎, 陈纯. 对抗样本生成技术综述. 软件学报, 2020, 31(1): 67-81.
http://www.jos.org.cn/1000-9825/5884. htm [doi:10.13328/j.cnki.jos.005884] |
[19] |
何正保, 黄晓霖. 针对神经网络的对抗攻击及其防御. 航空兵器, 2020, 27(3): 11-19.
|