联邦学习模型安全与隐私研究进展
作者:
作者单位:

作者简介:

通讯作者:

中图分类号:

基金项目:

国家自然科学基金(61732002,61572062)


A Survey on Security and Privacy of Federated Learning Models
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    随着数据孤岛现象的出现和个人隐私保护的重视,集中学习的应用模式受到制约,而联邦学习作为一个分布式机器学习框架,可以在不泄露用户数据的前提下完成模型训练,从诞生之初就备受关注.伴随着联邦学习应用的推广,其安全性和隐私保护能力也开始受到质疑.本文对近年来国内外学者在联邦学习模型安全与隐私的研究成果进行了系统总结与分析.首先,介绍联邦学习的背景知识,明确其定义和工作流程,并分析存在的脆弱点.其次,分别对联邦学习存在的安全威胁和隐私风险进行系统分析和对比,并归纳总结现有的防护手段.最后,展望未来的研究挑战和方向.

    Abstract:

    With the emergence of data islands and the attention to personal privacy protection, the application mode of centralized learning is restricted. Federated learning, as a distributed machine learning framework, can accomplish model training without leaking users' data. It has attracted great attention since it appeared. With the promotion of federated learning applications, its security and privacy have also begun to be questioned. This paper offers a systematic summary and analysis of the existing research achievements of the domestic and foreign researchers on the security and privacy of federated learning models in recent years. Firstly, this paper introduces the background of federated learning, clarifies its definition and workflow, and analyzes its existing vulnerabilities. Secondly, the security threats and privacy risks of federated learning are systematically analyzed and compared, and the existing protection methods are concluded. Finally, this paper prospects future challenges and works in this research area.

    参考文献
    相似文献
    引证文献
引用本文

顾育豪,白跃彬.联邦学习模型安全与隐私研究进展.软件学报,,():0

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2021-04-08
  • 最后修改日期:2022-01-02
  • 录用日期:
  • 在线发布日期: 2022-09-20
  • 出版日期:
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京市海淀区中关村南四街4号,邮政编码:100190
电话:010-62562563 传真:010-62562533 Email:jos@iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号