主页期刊介绍编委会编辑部服务介绍道德声明在线审稿编委办公编辑办公English
2019-2020年专刊出版计划 微信服务介绍 最新一期:2019年第1期
     
在线出版
各期目录
纸质出版
分辑系列
论文检索
论文排行
综述文章
专刊文章
美文分享
各期封面
E-mail Alerts
RSS
旧版入口
中国科学院软件研究所
  
投稿指南 问题解答 下载区 收费标准 在线投稿
马玉琨,毋立芳,简萌,刘方昊,杨洲.一种面向人脸活体检测的对抗样本生成算法.软件学报,0,(0):0
一种面向人脸活体检测的对抗样本生成算法
Approach to Generate Adversarial Examples for Face-Spoofing Detection
投稿时间:2017-09-13  修订日期:2017-10-30
DOI:10.13328/j.cnki.jos.005568
中文关键词:  人脸活体检测  对抗样本  卷积神经网络  对抗扰动  视觉集中性
英文关键词:Face-spoofing detection  adversarial examples  convolutional neural networks  adversarial perturbation  visual concentration
基金项目:北京市教委科技创新项目(KZ201510005012);国家自然科学基金(61702022);中国博士后科学基金(2017M610026,2017M610027)
作者单位E-mail
马玉琨 北京工业大学 信息学部, 北京 100124
河南科技学院 信息工程学院, 河南 新乡 453000 
 
毋立芳 北京工业大学 信息学部, 北京 100124 lfwu@bjut.edu.cn 
简萌 北京工业大学 信息学部, 北京 100124  
刘方昊 纽约大学 柯朗数学研究所, 纽约 美国 10012  
杨洲 北京工业大学 信息学部, 北京 100124  
摘要点击次数: 905
全文下载次数: 891
中文摘要:
      近年来,基于深度卷积神经网络的人脸活体检测技术取得了较好的性能,然而深度神经网络被证明易于受到对抗样本的攻击,影响了人脸系统的安全性.为了建立更好的防范机制,需充分研究活体检测任务对抗样本的生成机理.相比普通分类问题,活体检测任务具有类间距离小,且扰动操作难度大等特性,在此基础上,本文提出了基于最小扰动维度和人眼视觉特性的活体检测对抗样本生成算法,将扰动集中在少数几个维度上,并充分考虑人眼的视觉连带集中特性,加入扰动点的间距约束,以便最后生成的对抗样本更不易被人类察觉.所提方法只需平均改变输入向量总维度的1.36%,即可成功欺骗网络,使网络输出想要的分类结果.且通过志愿者的辨认,该方法较DeepFool方法的人眼感知率降低了20%.
英文摘要:
      Face-spoofing detection based on deep convolutional neural networks has achieved good performance in recent years. However, deep neural networks are vulnerable to adversarial examples, which will reduce the safety of the face based application systems. Therefore, it is necessary to analyze the mechanism of generating the adversarial examples, so that the face-spoofing detection algorithms will be more robust. Compared with the general classification problems, face-spoofing detection has the smaller inter-class distance, and the perturbation is difficulty to assign. Motivated by the above, we propose an approach to generate the adversarial examples for face-spoofing detection by combining the minimum perturbation dimensions and visual concentration. In our approach, perturbation is concentrated on a few pixels in a single component, and the intervals between pixels are constrained-according to the visual concentration. With such constraints, the generated adversarial examples can be perceived by human with low probability. The adversarial examples generated from the proposed approach can defraud the deep neural networks based classifier with only 1.36% changed pixels on average. Furthermore, human vision perception rate of the proposed approach decreases about 20% compared with DeepFool.
HTML  下载PDF全文  查看/发表评论  下载PDF阅读器
 

京公网安备 11040202500064号

主办单位:中国科学院软件研究所 中国计算机学会
编辑部电话:+86-10-62562563 E-mail: jos@iscas.ac.cn
Copyright 中国科学院软件研究所《软件学报》版权所有 All Rights Reserved
本刊全文数据库版权所有,未经许可,不得转载,本刊保留追究法律责任的权利