主页期刊介绍编委会编辑部服务介绍道德声明在线审稿编委办公English
2020-2021年专刊出版计划 微信服务介绍 最新一期:2020年第10期
     
在线出版
各期目录
纸质出版
分辑系列
论文检索
论文排行
综述文章
专刊文章
美文分享
各期封面
E-mail Alerts
RSS
旧版入口
中国科学院软件研究所
  
投稿指南 问题解答 下载区 收费标准 在线投稿
王鹤澎,王宏志,李建中,高宏.不一致数据上精确决策树生成算法.软件学报,2017,28(11):2814-2824
不一致数据上精确决策树生成算法
Algorithms for Accurate Decision Tree Generation on Inconsistent Data
投稿时间:2017-04-15  修订日期:2017-06-16
DOI:10.13328/j.cnki.jos.005344
中文关键词:  不一致数据  决策树  分类  海量数据
英文关键词:inconsistent data  decision tree  classification  massive data
基金项目:国家自然科学基金(U1509216,61472099);国家科技支撑计划(2015BAH10F01)
作者单位
王鹤澎 哈尔滨工业大学 计算机科学与技术系, 黑龙江 哈尔滨 150006 
王宏志 哈尔滨工业大学 计算机科学与技术系, 黑龙江 哈尔滨 150006 
李建中 哈尔滨工业大学 计算机科学与技术系, 黑龙江 哈尔滨 150006 
高宏 哈尔滨工业大学 计算机科学与技术系, 黑龙江 哈尔滨 150006 
摘要点击次数: 1435
全文下载次数: 1196
中文摘要:
      近年来,随着现实生活中数据量的不断增大,不一致数据的出现也越发频繁,这使得人工修正不一致数据变得更加耗时.而且,人工修正数据方法本身也存在着不可避免的人为操作错误,因此,这种修正方法不再可行.如何不提前修复不一致数据,直接在不一致数据上进行分类,是该文的核心研究内容.对决策树生成算法的目标函数进行改进,使其能够直接对不一致数据进行分类,并得到较好的分类结果.对约束条件中的特征对分类结果的影响进行了多方面衡量,从而调整该特征的影响因子,使得决策树的节点分割更加精确,分类效果更优.
英文摘要:
      In recent years, with the increasing amount of data in real life, inconsistent data becomes more frequent. This makes manual correction of inconsistent data more time-consuming. Moreover, manual correction prone to human errors. Thus, such correction method is no longer feasible. How to perform classification directly on inconsistent data without correcting data beforehand is the core research content of this paper. In this paper, the objective function of the decision tree generation algorithm is improved so that it can directly classify inconsistent data and achieve better results. Multidimensional measures of the influence of the feature are used on classification results to adjust the influence factor of the feature so that nodes of the decision tree can be split more accurate to achieve more effective classification results.
HTML  下载PDF全文  查看/发表评论  下载PDF阅读器
 

京公网安备 11040202500064号

主办单位:中国科学院软件研究所 中国计算机学会 京ICP备05046678号-4
编辑部电话:+86-10-62562563 E-mail: jos@iscas.ac.cn
Copyright 中国科学院软件研究所《软件学报》版权所有 All Rights Reserved
本刊全文数据库版权所有,未经许可,不得转载,本刊保留追究法律责任的权利