一种基于生成式对抗网络的图像描述方法
DOI:
作者:
作者单位:

作者简介:

薛子育(1992-),男,北京人,助理工程师,CCF学生会员,主要研究领域为机器学习,计算机图形学,图像理解;祝晓斌(1981-),男,副教授,CCF专业会员,主要研究领域为多媒体数据挖掘,机器学习;郭沛宇(1973-),男,教授级高级工程师,主要研究领域为数字媒体,数字版权保护,广播电视人工智能应用;张乃光(1978-),男,高级工程师,主要研究领域为数字媒体,数字版权保护,广播电视人工智能应用.

通讯作者:

郭沛宇,E-mail:guopeiyu@abs.ac.cn;祝晓斌,E-mail:zhuxiaobin@btbu.edu.cn

中图分类号:

基金项目:

国家广播电视总局广播科学研究院基本科研业务费课题(130016018000123)


Image Description Method Based on Generative Adversarial Networks
Author:
Affiliation:

Fund Project:

Basal Research Fund of Academy of Broadcasting Science, National Radio and Television Administration (130016018000123)

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    近年来,深度学习在图像描述领域得到越来越多的关注.现有的深度模型方法一般通过卷积神经网络进行特征提取,递归神经网络对特征拼接生成语句.然而,当图像较为复杂时,特征提取不准确且语句生成模型模式固定,部分语句不具备连贯性.基于此,提出一种结合多频道特征提取模型与生成式对抗网络框架的图像描述方法——CACNN-GAN.此方法在卷积层加入频道注意力机制在各频道提取特征,与COCO图像集进行近似特征比对,选择排序靠前的图像特征作为生成式对抗网络的输入,通过生成器与鉴别器之间的博弈过程,训练句法多样、语句通顺、词汇丰富的语句生成器模型.在实际数据集上的实验结果表明,CACNN-GAN能够有效地对图像进行语义描述,相比其他主流算法,显示出了更高的准确率.

    Abstract:

    In recent years, deep learning has gained more and more attention in image description. The existing deep learning methods using CNNs to extract features and RNNs to fold into one sentence. Nevertheless, when dealing with complex images, the feature extraction is inaccurate. And the fixed mode of sentence generation model leads to inconsistent sentences. To solve this problem, this study proposes a method combine channel-wise attention model and GANs, named CACNN-GAN. The channel-wise attention mechanism is added to each conv-layer to extract features, compare with the COCO dataset, and select the top features to generate sentence. Using GANs to generate the sentences, which is generated by the game process between the generator and the discriminator. After that, we can get a sentence generator contains the varied syntax, smooth sentence, and rich vocabulary. Experiments on real datasets illustrates that CACNN-GAN can effectively describe images, and get higher accuracy compared with the state-of-art.

    参考文献
    相似文献
    引证文献
引用本文

薛子育,郭沛宇,祝晓斌,张乃光.一种基于生成式对抗网络的图像描述方法.软件学报,2018,29(S2):30-43

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2018-04-16
  • 最后修改日期:
  • 录用日期:
  • 在线发布日期: 2019-08-07
  • 出版日期:
文章二维码
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京市海淀区中关村南四街4号,邮政编码:100190
电话:010-62562563 传真:010-62562533 Email:jos@iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号