主页期刊介绍编委会编辑部服务介绍道德声明在线审稿编委办公编辑办公English
2018-2019年专刊出版计划 微信服务介绍 最新一期:2019年第11期
     
在线出版
各期目录
纸质出版
分辑系列
论文检索
论文排行
综述文章
专刊文章
美文分享
各期封面
E-mail Alerts
RSS
旧版入口
中国科学院软件研究所
  
投稿指南 问题解答 下载区 收费标准 在线投稿
潘文雯,王新宇,宋明黎,陈纯.对抗样本生成技术综述.软件学报,2020,31(1):0
对抗样本生成技术综述
Survey on Generating Adversarial Examples
投稿时间:2018-11-19  修订日期:2019-03-07
DOI:10.13328/j.cnki.jos.005884
中文关键词:  深度学习  对抗样本生成  扰动  目标定向  目标非定向  黑盒测试
英文关键词:deep learning  adversarial examples  perturbation  targeted  no targeted  black-box test
基金项目:
作者单位E-mail
潘文雯 浙江大学 计算机科学与技术学院, 浙江 杭州 310027  
王新宇 浙江大学 计算机科学与技术学院, 浙江 杭州 310027  
宋明黎 浙江大学 计算机科学与技术学院, 浙江 杭州 310027 brooksong@zju.edu.cn 
陈纯 浙江大学 计算机科学与技术学院, 浙江 杭州 310027  
摘要点击次数: 252
全文下载次数: 66
中文摘要:
      如今,深度学习已经被广泛应用于图像分类和图像识别的问题中,取得了令人满意的实际效果,成为了许多人工智能应用的关键所在.在对于模型准确率的不断探究中,研究人员在近期提出了"对抗样本"这一概念.通过在原有样本中添加微小扰动的方法,成功地大幅度降低原有分类深度模型的准确率,实现对于深度学习的对抗目的,同时也给深度学习的攻方提供了新的思路,对如何开展防御提出了新的要求.本文在介绍对抗样本生成技术的起源和原理的基础上,对近年来有关于对抗样本的研究和论文进行了总结,按照各自的算法原理将经典的生成算法分成两大类——全像素添加扰动和部分像素添加扰动.之后,以目标定向和目标非定向,黑盒测试和白盒测试,肉眼可见和肉眼不可见的二级分类标准进行二次分类.同时,使用MNIST数据集对各类代表性的方法进行了实验验证,以探究各种方法的优缺点.最后,总结了生成对抗样本所面临的挑战和其可以发展的方向,并就该技术的发展前景进行了探讨.
英文摘要:
      Recently, deep learning has been widely used in image classification and image recognition, which has achieved satisfactory results and has become the important part of AI applications. During the continuous exploration of the accuracy of models, recent studies have proposed the concept of "adversarial examples". By adding small perturbations to the original samples, it can greatly reduce the accuracy of the original classifier and achieve the purpose of anti-deep learning, which provides new ideas for deep learning attackers, and also puts forward new requirements for defenders. On the basis of introducing the origin and principle of generating adversarial examples, this paper summarizes the research and papers on generating adversarial examples in recent years, and divides these algorithms into two categories:entire pixel perturbation and partial pixel perturbation. Then, the secondary classification criteria (targeted and no targeted, black-box test and white-box test, visible and invisible) were used for secondary classification. At the same time, the MNIST data set is used to validate the methods, which proves the advantages and disadvantages of the various methods. Finally, this paper summarizes the challenges of generating adversarial examples and the direction of their development, and also discusses the future of them.
HTML  下载PDF全文  查看/发表评论  下载PDF阅读器
 

京公网安备 11040202500064号

主办单位:中国科学院软件研究所 中国计算机学会 京ICP备05046678号-4
编辑部电话:+86-10-62562563 E-mail: jos@iscas.ac.cn
Copyright 中国科学院软件研究所《软件学报》版权所有 All Rights Reserved
本刊全文数据库版权所有,未经许可,不得转载,本刊保留追究法律责任的权利