面向边缘智能的两阶段对抗知识迁移方法
作者:
作者单位:

作者简介:

钱亚冠(1976-),男,博士,教授,CCF专业会员,主要研究领域为深度学习,人工智能安全,大数据处理;顾钊铨(1989-),男,博士,教授,CCF专业会员,主要研究领域为无线网络,分布式计算,大数据分析,人工智能安全;马骏(1994-),男,硕士生,主要研究领域为深度学习,人工智能安全,大数据处理;凌祥(1992-),男,博士生,主要研究领域为人工智能安全,数据驱动的安全;何念念(1994-),女,硕士生,主要研究领域为深度学习,人工智能安全,大数据处理;Wassim Swaileh(1979-),男,博士,副教授,主要研究领域为机器学习,模式识别,自然语言处理;王滨(1977-),男,博士,研究员,博士生导师,CCF专业会员,主要研究领域为物联网,网络与信息安全,网络体系机构.

通讯作者:

王滨,E-mail:wbin2006@gmail.com

中图分类号:

TP182

基金项目:

浙江省自然科学基金(LY17F020011);国家重点研发计划(2018YFB2100400);国家自然科学基金(61902082);


Two-stage Adversarial Knowledge Transfer for Edge Intelligence
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    对抗样本的出现,对深度学习的鲁棒性提出了挑战.随着边缘智能的兴起,如何在计算资源有限的边缘设备上部署鲁棒的精简深度学习模型,是一个有待解决的问题.由于精简模型无法通过常规的对抗训练获得良好的鲁棒性,提出两阶段对抗知识迁移的方法,先将对抗知识从数据向模型迁移,然后将复杂模型获得的对抗知识向精简模型迁移.对抗知识以对抗样本的数据形式蕴含,或以模型决策边界的形式蕴含.具体而言,利用云平台上的GPU集群对复杂模型进行对抗训练,实现对抗知识从数据向模型迁移;利用改进的蒸馏技术将对抗知识进一步从复杂模型向精简模型的迁移,最后提升边缘设备上精简模型的鲁棒性.在MNIST,CIFAR-10和CIFAR-100这3个数据集上进行验证,实验结果表明:提出的这种两阶段对抗知识迁移方法可以有效地提升精简模型的性能和鲁棒性,同时加快训练过程的收敛性.

    Abstract:

    The emergence of adversarial examples brings challenges to the robustness of deep learning. With the development of edge intelligence, how to train a robust and compact deep learning mode on edge devices with limited computing resources is also a challenging problem. Since compact models cannot obtain sufficient robustness through conventional adversarial training, a method called two-stage adversarial knowledge transfer is proposed. The method transfers adversarial knowledge from data to models and complex models to compact models. The so-called adversarial knowledge has two forms, one is contained in data with the form of adversarial examples, and the other is contained in models with the form of decision boundary. The GPU clusters of cloud center is first leveraged to train the complex model with adversarial examples to realize the transfer of adversarial knowledge from data to models, and then an improved distillation approach is leveraged to realize the further transfer of adversarial knowledge from complex models to compact models on edge nodes. The experiments over MNIST and CIFAR-10 show that this two-stage adversarial knowledge transfers can efficiently improve the robustness and convergence of compact models.

    参考文献
    相似文献
    引证文献
引用本文

钱亚冠,马骏,何念念,王滨,顾钊铨,凌祥,Wassim Swaileh.面向边缘智能的两阶段对抗知识迁移方法.软件学报,2022,33(12):4504-4516

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2020-03-06
  • 最后修改日期:2021-03-08
  • 录用日期:
  • 在线发布日期: 2022-12-03
  • 出版日期: 2022-12-06
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京市海淀区中关村南四街4号,邮政编码:100190
电话:010-62562563 传真:010-62562533 Email:jos@iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号