图像对抗样本检测综述
作者:
作者单位:

作者简介:

周涛(1997-),男,硕士,主要研究领域为对抗攻击,对抗样本检测;甘燃(1997-),男,硕士,主要研究领域为对抗攻击,对抗样本检测;徐东伟(1985-),男,博士,副教授,主要研究领域为人工智能应用及安全;王竟亦(1991-),男,博士,研究员,博士生导师,主要研究领域为智能系统安全,形式化方法,软件工程;宣琦(1981-),男,博士,教授,博士生导师,主要研究领域为人工智能安全,智能信号分析,网络数据挖掘

通讯作者:

宣琦,E-mail:xuanqi@zjut.edu.cn

中图分类号:

基金项目:

浙江省重点研发计划(2022C01018); 国家自然科学基金(U21B2001, 62102359)


Survey on Adversarial Example Detection of Images
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    深度神经网络是人工智能领域的一项重要技术, 它被广泛应用于各种图像分类任务. 但是, 现有的研究表明深度神经网络存在安全漏洞, 容易受到对抗样本的攻击, 而目前并没有研究针对图像对抗样本检测进行体系化分析. 为了提高深度神经网络的安全性, 针对现有的研究工作, 全面地介绍图像分类领域的对抗样本检测方法. 首先根据检测器的构建方式将检测方法分为有监督检测与无监督检测, 然后根据其检测原理进行子类划分. 最后总结对抗样本检测领域存在的问题, 在泛化性和轻量化等方面提出建议与展望, 旨在为人工智能安全研究提供帮助.

    Abstract:

    As an important technology in the field of artificial intelligence (AI), deep neural networks are widely used in various image classification tasks. However, existing studies have shown that deep neural networks have security vulnerabilities and are vulnerable to adversarial examples. At present, there is no research on the systematic analysis of adversarial example detection of images. To improve the security of deep neural networks, this study, based on the existing research work, comprehensively introduces adversarial example detection methods in the field of image classification. First, the detection methods are divided into supervised detection and unsupervised detection by the construction method of the detector, which are then classified into subclasses according to detection principles. Finally, the study summarizes the problems in adversarial example detection and provides suggestions and an outlook in terms of generalization and lightweight, aiming to assist in AI security research.

    参考文献
    相似文献
    引证文献
引用本文

周涛,甘燃,徐东伟,王竟亦,宣琦.图像对抗样本检测综述.软件学报,2024,35(1):185-219

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2022-01-24
  • 最后修改日期:2022-10-21
  • 录用日期:
  • 在线发布日期: 2023-08-09
  • 出版日期: 2024-01-06
文章二维码
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京市海淀区中关村南四街4号,邮政编码:100190
电话:010-62562563 传真:010-62562533 Email:jos@iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号