主页期刊介绍编委会编辑部服务介绍道德声明在线审稿编委办公编辑办公English
2018-2019年专刊出版计划 微信服务介绍 最新一期:2019年第10期
     
在线出版
各期目录
纸质出版
分辑系列
论文检索
论文排行
综述文章
专刊文章
美文分享
各期封面
E-mail Alerts
RSS
旧版入口
中国科学院软件研究所
  
投稿指南 问题解答 下载区 收费标准 在线投稿
李涓子,黄昌宁.语言模型中一种改进的最大熵方法及其应用.软件学报,1999,10(3):257-263
语言模型中一种改进的最大熵方法及其应用
An Improved Maximum Entropy Language Model and Its Application
投稿时间:1997-12-11  修订日期:1998-03-12
DOI:
中文关键词:  语言模型,最大熵模型,参数估计,特征选择,互信息,Z-测试.
英文关键词:Language model, maximum entropy model, parameter estimation, feature selection, mutual information, Z-test.
基金项目:本文研究得到国家自然科学基金重点项目资助.
作者单位
李涓子 清华大学计算机科学与技术系,北京,100084
清华大学智能技术与系统国家重点实验室,北京,100084 
黄昌宁 清华大学计算机科学与技术系,北京,100084
清华大学智能技术与系统国家重点实验室,北京,100084 
摘要点击次数: 2726
全文下载次数: 2657
中文摘要:
      最大熵方法是建立统计语言模型的一种有效的方法,具有较强的知识表达能力.但是,在用现有的最大熵方法建立统计模型时存在计算量大的问题.针对这一问题,提出了一种改进的最大熵方法.该方法使用互信息的概念,通过Z-测试进行特征选择.将该方法应用于汉语的义项排歧中,实验表明,该算法具有较高的计算效率和正确率.
英文摘要:
      The maximum entropy approach is proved to be expressive and effective for the statistics language modeling, but it suffers from the computational expensiveness of the model building. An improved maximum entropy approach which makes use of mutual information of information theory to select features based on Z-test is proposed. The approach is applied to Chinese word sense disambiguation. The experiments show that it has higher efficiency and precision.
HTML  下载PDF全文  查看/发表评论  下载PDF阅读器
 

京公网安备 11040202500064号

主办单位:中国科学院软件研究所 中国计算机学会 京ICP备05046678号-4
编辑部电话:+86-10-62562563 E-mail: jos@iscas.ac.cn
Copyright 中国科学院软件研究所《软件学报》版权所有 All Rights Reserved
本刊全文数据库版权所有,未经许可,不得转载,本刊保留追究法律责任的权利