拉普拉斯阶梯网络
作者:
作者单位:

作者简介:

胡聪(1987-),男,湖北随州人,博士,讲师,主要研究领域为人工智能,模式识别,计算机视觉;吴小俊(1967-),男,博士,教授,博士生导师,CCF专业会员,主要研究领域为人工智能,模式识别,计算机视觉;舒振球(1985-),男,博士,副教授,CCF专业会员,主要研究领域为模式识别;陈素根(1982-),男,博士,副教授,主要研究领域为模式识别与智能系统.

通讯作者:

吴小俊,E-mail:xiaojun_wu_jnu@163.com

中图分类号:

TP181

基金项目:

国家自然科学基金(61373055,61672265,61603159,61702012,U1836218);教育部111引智计划(B12018);江苏省自然科学基金(BK20160293);安徽省高等学校优秀青年人才支持计划(gxyq2017026)


Laplacian Ladder Networks
Author:
Affiliation:

Fund Project:

National Natural Science Foundation of China (61373055, 61672265, 61603159, 61702012, U1836218); 111 Project of Ministry of Education of China (B12018); Natural Science Foundation of Jiangsu Province (BK20160293); Outstanding Young Talent Support Project of Higher Educations of Anhui Province (gxyq2017026)

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    阶梯网络不仅是一种基于深度学习的特征提取器,而且能够应用于半监督学习中.深度学习在实现了复杂函数逼近的同时,也缓解了多层神经网络易陷入局部最小化的问题.传统的自编码、玻尔兹曼机等方法易忽略高维数据的低维流形结构信息,使用这些方法往往会获得无意义的特征表示,这些特征不能有效地嵌入到后续的预测或识别任务中.从流形学习的角度出发,提出一种基于阶梯网络的深度表示学习方法,即拉普拉斯阶梯网络LLN (Laplacian ladder network).拉普拉斯阶梯网络在训练的过程中不仅对每一编码层嵌入噪声并进行重构,而且在各重构层引入图拉普拉斯约束,将流形结构嵌入到多层特征学习中,以提高特征提取的鲁棒性和判别性.在有限的有标签数据情况下,拉普拉斯阶梯网络将监督学习损失和非监督损失融合到了统一的框架进行半监督学习.在标准手写数据数据集MNIST和物体识别数据集CIFAR-10上进行了实验,结果表明,相对于阶梯网络和其他半监督方法,拉普拉斯阶梯网络都得到了更好的分类效果,是一种有效的半监督学习算法.

    Abstract:

    Ladder networks is not only an effective deep learning-based feature extractor, but also can be applied on semi-supervised learning. Deep learning has the advantage of approximating the complicated function and alleviating the optimization difficulty associated with deep models. Autoencoders and restricted Boltzmann machines ignore the manifold information of high-dimensional data and usually achieve unmeaning features which are very difficult to use in the subsequent tasks, such as prediction and recognition. From the perspective of manifold learning, a novel deep representation method Laplacian ladder networks (LLN) is proposed, which is based on ladder networks (LN). When training LLN, LLN reconstructs noisy input and encoder layers, and adds graph Laplacian constrains to learn hierarchical representations for improving the robustness and discrimination of system. Under the condition of limited labeled data, LLN fuses the supervised learning and unsupervised learning to training in a semi-supervised manner. This study performs the experiments on the MNIST and CIFAR-10 datasets. Experimental results show that the proposed method LLN achieves superior performance compared with LN and other semi-supervised methods, and it is an effective semi-supervised method.

    参考文献
    相似文献
    引证文献
引用本文

胡聪,吴小俊,舒振球,陈素根.拉普拉斯阶梯网络.软件学报,2020,31(5):1525-1535

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2018-05-03
  • 最后修改日期:2018-06-16
  • 录用日期:
  • 在线发布日期: 2020-05-18
  • 出版日期: 2020-05-06
文章二维码
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京市海淀区中关村南四街4号,邮政编码:100190
电话:010-62562563 传真:010-62562533 Email:jos@iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号