对抗样本生成技术综述
作者:
作者单位:

作者简介:

潘文雯(1995-),女,浙江杭州人,硕士,主要研究领域为人工智能;王新宇(1979-),男,博士,教授,博士生导师,CCF专业会员,主要研究领域为软件工程;宋明黎(1976-),男,博士,教授,博士生导师,CCF专业会员,主要研究领域为计算机视觉,图像增强,模式识别,人工智能;陈纯(1955-),男,博士,教授,博士生导师,CCF会士,主要研究领域为计算机软件与理论,大数据实时智能处理技术.

通讯作者:

宋明黎,E-mail:brooksong@zju.edu.cn

中图分类号:

TP18

基金项目:

国家自然科学基金(61572426,61572428)


Survey on Generating Adversarial Examples
Author:
Affiliation:

Fund Project:

National Natural Science Foundation of China (61572426, 61572428)

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    如今,深度学习已被广泛应用于图像分类和图像识别的问题中,取得了令人满意的实际效果,成为许多人工智能应用的关键所在.在对于模型准确率的不断探究中,研究人员在近期提出了“对抗样本”这一概念.通过在原有样本中添加微小扰动的方法,成功地大幅度降低原有分类深度模型的准确率,实现了对于深度学习的对抗目的,同时也给深度学习的攻方提供了新的思路,对如何开展防御提出了新的要求.在介绍对抗样本生成技术的起源和原理的基础上,对近年来有关对抗样本的研究和文献进行了总结,按照各自的算法原理将经典的生成算法分成两大类——全像素添加扰动和部分像素添加扰动.之后,以目标定向和目标非定向、黑盒测试和白盒测试、肉眼可见和肉眼不可见的二级分类标准进行二次分类.同时,使用MNIST数据集对各类代表性的方法进行了实验验证,以探究各种方法的优缺点.最后总结了生成对抗样本所面临的挑战及其可以发展的方向,并就该技术的发展前景进行了探讨.

    Abstract:

    Recently, deep learning has been widely used in image classification and image recognition, which has achieved satisfactory results and has become the important part of AI applications. During the continuous exploration of the accuracy of models, recent studies have proposed the concept of "adversarial examples". By adding small perturbations to the original samples, it can greatly reduce the accuracy of the original classifier and achieve the purpose of anti-deep learning, which provides new ideas for deep learning attackers, and also puts forward new requirements for defenders. On the basis of introducing the origin and principle of generating adversarial examples, this paper summarizes the research and papers on generating adversarial examples in recent years, and divides these algorithms into two categories:entire pixel perturbation and partial pixel perturbation. Then, the secondary classification criteria (targeted and not targeted, black-box test and white-box test, visible and invisible) were used for secondary classification. At the same time, the MNIST data set is used to validate the methods, which proves the advantages and disadvantages of the various methods. Finally, this paper summarizes the challenges of generating adversarial examples and the direction of their development, and also discusses the future of them.

    参考文献
    相似文献
    引证文献
引用本文

潘文雯,王新宇,宋明黎,陈纯.对抗样本生成技术综述.软件学报,2020,31(1):67-81

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2018-11-19
  • 最后修改日期:2019-07-08
  • 录用日期:
  • 在线发布日期: 2019-11-07
  • 出版日期: 2020-01-06
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京市海淀区中关村南四街4号,邮政编码:100190
电话:010-62562563 传真:010-62562533 Email:jos@iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号