基于生成对抗网络的目标检测黑盒迁移攻击算法
作者:
作者单位:

作者简介:

陆宇轩(1997-),男,硕士,主要研究领域为机器学习,计算机视觉,对抗攻击;刘泽禹(2001-),男,本科生,主要研究领域为机器学习,计算机视觉;罗咏刚(1992-),男,博士,主要研究领域为人工智能;邓森友(1990-),男,硕士,主要研究领域为机器学习,计算机视觉,对抗攻击;江天(1987-),女,硕士,主要研究领域为计算机视觉,算法安全性;马金燕(1996-),女,硕士,主要研究领域为计算机视觉,目标检测;董胤蓬(1995-),男,博士,主要研究领域为机器学习,计算机视觉,对抗攻击

通讯作者:

董胤蓬, E-mail: dongyinpeng@mail.tsinghua.edu.cn

中图分类号:

TP391

基金项目:


Black-box Transferable Attack Method for Object Detection Based on GAN
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    目标检测被广泛应用到自动驾驶、工业、医疗等各个领域. 利用目标检测算法解决不同领域中的关键任务逐渐成为主流. 然而基于深度学习的目标检测模型在对抗样本攻击下, 模型的鲁棒性存在严重不足, 通过加入微小扰动构造的对抗样本很容易使模型预测出错. 这极大地限制了目标检测模型在关键安全领域的应用. 在实际应用中的模型普遍是黑盒模型, 现有的针对目标检测模型的黑盒攻击相关研究不足, 存在鲁棒性评测不全面, 黑盒攻击成功率较低, 攻击消耗资源较高等问题. 针对上述问题, 提出基于生成对抗网络的目标检测黑盒攻击算法, 所提算法利用融合注意力机制的生成网络直接输出对抗扰动, 并使用替代模型的损失和所提的类别注意力损失共同优化生成网络参数, 可以支持定向攻击和消失攻击两种场景. 在Pascal VOC数据集和MS COCO数据集上的实验结果表明, 所提方法比目前攻击方法的黑盒迁移攻击成功率更高, 并且可以在不同数据集之间进行迁移攻击.

    Abstract:

    Object detection is widely used in various fields such as autonomous driving, industry, and medical care. Using the object detection algorithm to solve key tasks in different fields has gradually become the main method. However, the robustness of the object detection model based on deep learning is seriously insufficient under the attack of adversarial samples. It is easy to make the model prediction wrong by adding the adversarial samples constructed by small perturbations, which greatly limits the application of the object detection model in key security fields. In practical applications, the models are black-box models. Related research on black-box attacks against object detection models is relatively lacking, and there are many problems such as incomplete robustness evaluation, low attack success rate of black-box, and high resource consumption. To address the aforementioned issues, this study proposes a black-box object detection attack algorithm based on a generative adversarial network. The algorithm uses the generative network fused with an attention mechanism to output the adversarial perturbations and employs the alternative model loss and the category attention loss to optimize the generated network parameters, which can support two scenarios of target attack and vanish attack. A large number of experiments are conducted on the Pascal VOC and the MSCOCO datasets. The results demonstrate that the proposed method has a higher black-box transferable attack success rate and can perform transferable attacks between different datasets.

    参考文献
    相似文献
    引证文献
引用本文

陆宇轩,刘泽禹,罗咏刚,邓森友,江天,马金燕,董胤蓬.基于生成对抗网络的目标检测黑盒迁移攻击算法.软件学报,2024,35(7):3531-3550

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2022-11-27
  • 最后修改日期:2023-01-14
  • 录用日期:
  • 在线发布日期: 2023-08-23
  • 出版日期:
文章二维码
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京市海淀区中关村南四街4号,邮政编码:100190
电话:010-62562563 传真:010-62562533 Email:jos@iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号