主页期刊介绍编委会编辑部服务介绍道德声明在线审稿编委办公编辑办公English
2018-2019年专刊出版计划 微信服务介绍 最新一期:2019年第9期
     
在线出版
各期目录
纸质出版
分辑系列
论文检索
论文排行
综述文章
专刊文章
美文分享
各期封面
E-mail Alerts
RSS
旧版入口
中国科学院软件研究所
  
投稿指南 问题解答 下载区 收费标准 在线投稿
姚鸿勋,高文,李静梅,吕雅娟,王瑞.用于口型识别的实时唇定位方法.软件学报,2000,11(8):1126-1132
用于口型识别的实时唇定位方法
Real-Time Lip Locating Method for Lip-Movement Recognition
投稿时间:1999-05-17  修订日期:1999-09-09
DOI:
中文关键词:  唇读,唇动,肤色模型,光流,可变模板.
英文关键词:Lip-reading, lip-movement, skin-color model, optical flow, deformable templat e.
基金项目:本文研究得到国家自然科学基金(No.69789301)和国家863高科技项目基金(No.863- 306-ZT03-01-2)资助.
作者单位
姚鸿勋 哈尔滨工业大学计算机科学与工程系,哈尔滨,150001 
高文 哈尔滨工业大学计算机科学与工程系,哈尔滨,150001 
李静梅 哈尔滨工程大学计算机科学与信息系,哈尔滨,150001 
吕雅娟 哈尔滨工业大学计算机科学与工程系,哈尔滨,150001 
王瑞 哈尔滨工业大学计算机科学与工程系,哈尔滨,150001 
摘要点击次数: 2883
全文下载次数: 2538
中文摘要:
      在许多应用于有噪声环境下的语音识别系统中,唇读技术能有效地降低噪声的影响,通过视觉 通道来补充仅取决于听觉通道的信息量,从而提高语音识别系统的识别率.该文提出了一种有 效和稳健的唇定位跟踪方法,以满足不用特殊标识物和规范性照明就能对信息进行有效提取 的应用需求.该方法首先用肤色模型查找脸;然后用迭代算法搜索脸部区域内的眼睛;再根据 眼睛的位置来确定脸的大小和位置,并对脸的下半部分采用彩色坐标变换法将唇从肤色中明 显地区分出来;最后,用可变模板将上下唇的内外轮廓描述出来.
英文摘要:
      For speech recognition systems under noisy environment, lip-reading technique c an effectively reduce the influence of noise and improve the accurate rate o f speech recognition system by adding visual information to acoustic channel. In this paper, an effective and robust approach for lip and mouth locating and tra cking is presented to enable the information extraction under abnormal illumina tion and without special marks. This approach first locates face region with skin-color model, then finds the eyes from the face region with iterative algo rithm, modifies the position and size of face according to the position of eyes, transforms the lower part of face by specific color coordinators to clearly dis tinguish lip color from skin color, and finally describes the outline of upper l ip and lower lip with deformable template.
HTML  下载PDF全文  查看/发表评论  下载PDF阅读器
 

京公网安备 11040202500064号

主办单位:中国科学院软件研究所 中国计算机学会 京ICP备05046678号-4
编辑部电话:+86-10-62562563 E-mail: jos@iscas.ac.cn
Copyright 中国科学院软件研究所《软件学报》版权所有 All Rights Reserved
本刊全文数据库版权所有,未经许可,不得转载,本刊保留追究法律责任的权利