 |
|
|
|
 |
 |
 |
|
 |
|
 |
|
|
李涓子,黄昌宁.语言模型中一种改进的最大熵方法及其应用.软件学报,1999,10(3):257-263 |
语言模型中一种改进的最大熵方法及其应用 |
An Improved Maximum Entropy Language Model and Its Application |
投稿时间:1997-12-11 修订日期:1998-03-12 |
DOI: |
中文关键词: 语言模型,最大熵模型,参数估计,特征选择,互信息,Z-测试. |
英文关键词:Language model, maximum entropy model, parameter estimation, feature selection, mutual information, Z-test. |
基金项目:本文研究得到国家自然科学基金重点项目资助. |
|
摘要点击次数: 3133 |
全文下载次数: 2942 |
中文摘要: |
最大熵方法是建立统计语言模型的一种有效的方法,具有较强的知识表达能力.但是,在用现有的最大熵方法建立统计模型时存在计算量大的问题.针对这一问题,提出了一种改进的最大熵方法.该方法使用互信息的概念,通过Z-测试进行特征选择.将该方法应用于汉语的义项排歧中,实验表明,该算法具有较高的计算效率和正确率. |
英文摘要: |
The maximum entropy approach is proved to be expressive and effective for the statistics language modeling, but it suffers from the computational expensiveness of the model building. An improved maximum entropy approach which makes use of mutual information of information theory to select features based on Z-test is proposed. The approach is applied to Chinese word sense disambiguation. The experiments show that it has higher efficiency and precision. |
HTML 下载PDF全文 查看/发表评论 下载PDF阅读器 |
|
|
|
|
|
|
 |
|
|
|
|
 |
|
 |
|
 |
|