主页期刊介绍编委会编辑部服务介绍道德声明在线审稿编委办公编辑办公English
2018-2019年专刊出版计划 微信服务介绍 最新一期:2019年第8期
     
在线出版
各期目录
纸质出版
分辑系列
论文检索
论文排行
综述文章
专刊文章
美文分享
各期封面
E-mail Alerts
RSS
旧版入口
中国科学院软件研究所
  
投稿指南 问题解答 下载区 收费标准 在线投稿
王志国,宗成庆.基于高阶词汇依存的短语结构树重排序模型.软件学报,2012,23(10):2628-2642
基于高阶词汇依存的短语结构树重排序模型
Phrase Parses Reranking Based on Higher-Order Lexical Dependencies
投稿时间:2011-05-13  修订日期:2012-02-15
DOI:10.3724/SP.J.1001.2012.04192
中文关键词:  短语结构  依存结构  句法重排序  高阶词汇依存关系  句法森林
英文关键词:phrase structure  dependency structure  parse reranking  higher-order lexical dependencies  parseforest
基金项目:国家自然科学基金(60975053, 61003160); 中国科学院对外合作交流项目
作者单位E-mail
王志国 模式识别国家重点实验室(中国科学院自动化研究所), 北京 100190 zgwang@nlpr.ia.ac.cn 
宗成庆 模式识别国家重点实验室(中国科学院自动化研究所), 北京 100190  
摘要点击次数: 2259
全文下载次数: 2733
中文摘要:
      在句法分析中,已有研究工作表明,词汇依存信息对短语结构句法分析是有帮助的,但是已有的研究工作都仅局限于使用一阶的词汇依存信息.提出了一种使用高阶词汇依存信息对短语结构树进行重排序的模型,该模型首先为输入句子生成有约束的搜索空间(例如,N-best 句法分析树列表或者句法分析森林),然后在约束空间内获取高阶词汇依存特征,并利用这些特征对短语结构候选树进行重排序,最终选择出最优短语结构分析树.在宾州中文树库上的实验结果表明,该模型的最高 F1 值达到了 85.74%,超过了目前在宾州中文树库上的最好结果.另外,在短语结构分析树的基础上生成的依存结构树的准确率也有了大幅提升.
英文摘要:
      The existing works on parsing show that lexical dependencies are helpful for phrase tree parsing.However, only first-order lexical dependencies have been employed and investigated in previous research. Thispaper proposes a novel method for employing higher-order lexical dependencies for phrase tree evaluation. Themethod is based on a parse reranking framework, which provides a constrained search space (via N-best lists orparse forests) and enables the parser to employ relatively complicated lexical dependency features. The models areevaluated on the UPenn Chinese Treebank. The highest F1 score reaches 85.74% and has outperformed allpreviously reported state-of-the-art systems. The dependency accuracy of phrase trees generated by the parser hasbeen significantly improved as well.
HTML  下载PDF全文  查看/发表评论  下载PDF阅读器
 

京公网安备 11040202500064号

主办单位:中国科学院软件研究所 中国计算机学会 京ICP备05046678号-4
编辑部电话:+86-10-62562563 E-mail: jos@iscas.ac.cn
Copyright 中国科学院软件研究所《软件学报》版权所有 All Rights Reserved
本刊全文数据库版权所有,未经许可,不得转载,本刊保留追究法律责任的权利