主页期刊介绍编委会编辑部服务介绍道德声明在线审稿编委办公编辑办公English
2018-2019年专刊出版计划 微信服务介绍 最新一期:2019年第9期
     
在线出版
各期目录
纸质出版
分辑系列
论文检索
论文排行
综述文章
专刊文章
美文分享
各期封面
E-mail Alerts
RSS
旧版入口
中国科学院软件研究所
  
投稿指南 问题解答 下载区 收费标准 在线投稿
李志欣,施智平,李志清,史忠植.融合语义主题的图像自动标注.软件学报,2011,22(4):801-812
融合语义主题的图像自动标注
Automatic Image Annotation by Fusing Semantic Topics
投稿时间:2009-05-13  修订日期:2009-10-10
DOI:10.3724/SP.J.1001.2011.03742
中文关键词:  图像自动标注  主题模型  概率潜语义分析  自适应不对称学习  图像检索
英文关键词:automatic image annotation  topic model  probabilistic latent semantic analysis  adaptive asymmetric learning  image retrieval
基金项目:国家自然科学基金(60933004, 60903141, 60805041); 国家重点基础研究发展计划(973)(2007CB311004)
作者单位E-mail
李志欣 中国科学院 计算技术研究所 智能信息处理重点实验室,北京 100190
中国科学院 研究生院,北京 100049 
lizx@ics.ict.ac.cn 
施智平 中国科学院 计算技术研究所 智能信息处理重点实验室,北京 100190  
李志清 中国科学院 计算技术研究所 智能信息处理重点实验室,北京 100190
中国科学院 研究生院,北京 100049 
 
史忠植 中国科学院 计算技术研究所 智能信息处理重点实验室,北京 100190  
摘要点击次数: 3995
全文下载次数: 6606
中文摘要:
      由于语义鸿沟的存在,图像自动标注已成为一个重要课题.在概率潜语义分析的基础上,提出了一种融合语义主题的方法以进行图像的标注和检索.首先,为了更准确地建模训练数据,将每幅图像的视觉特征表示为一个视觉“词袋”;然后设计一个概率模型分别从视觉模态和文本模态中捕获潜在语义主题,并提出一种自适应的不对称学习方法融合两种语义主题.对于每个图像文档,它在各个模态上的主题分布通过加权进行融合,而权值由该文档的视觉词分布的熵值来确定.于是,融合之后的概率模型适当地关联了视觉模态和文本模态的信息,因此能够很好地预测未知图像的语义标注.在一个通用的Corel 图像数据集上,将提出的方法与几种前沿的图像标注方法进行了比较.实验结果表明,该方法具有更好的标注和检索性能.
英文摘要:
      Automatic image annotation has become an important issue, due to the existence of a semantic gap. Based on probabilistic latent semantic analysis (PLSA), this paper presents an approach to annotate and retrieve images by fusing semantic topics. First, in order to precisely model training data, each image is represented as a bag of visual words. Then, a probabilistic model is designed to capture latent semantic topics from visual and textual modalities, respectively. Furthermore, an adaptive asymmetric learning approach is proposed to fuse these semantic topics. For each image document, the topic distribution of each modality is fused by multiplying different weights, which is determined by the entropy of the distribution of visual words. Consequently, the probabilistic model can predict semantic annotations for an unseen image because it associates visual and textual modalities properly. This approach is compared with several other state-of-the-art approaches on a standard Corel dataset. The experimental results show that this approach performs more effectively and accurately.
HTML  下载PDF全文  查看/发表评论  下载PDF阅读器
 

京公网安备 11040202500064号

主办单位:中国科学院软件研究所 中国计算机学会 京ICP备05046678号-4
编辑部电话:+86-10-62562563 E-mail: jos@iscas.ac.cn
Copyright 中国科学院软件研究所《软件学报》版权所有 All Rights Reserved
本刊全文数据库版权所有,未经许可,不得转载,本刊保留追究法律责任的权利