主页期刊介绍编委会编辑部服务介绍道德声明在线审稿编委办公编辑办公English
     
在线出版
各期目录
纸质出版
分辑系列
论文检索
论文排行
综述文章
专刊文章
美文分享
各期封面
E-mail Alerts
RSS
旧版入口
中国科学院软件研究所
  
投稿指南 问题解答 下载区 收费标准 在线投稿
孙剑,郑南宁,张志华.一种训练支撑向量机的改进贯序最小优化算法.软件学报,2002,13(10):2007-2013
一种训练支撑向量机的改进贯序最小优化算法
An Improved Sequential Minimization Optimization Algorithm for Support Vector Machine Training
投稿时间:2000-12-07  修订日期:2001-11-05
DOI:
中文关键词:  支撑向量机  模式分类  二次规划  缓存策略  贯序最小优化算法
英文关键词:support vector machine  pattern classification  quadratic programming  caching strategy  sequential minimization optimization algorithm
基金项目:国家自然科学基金资助项目(60175006;60024301);国家创新研究群体科学基金项目(60024301)
作者单位
孙剑 西安交通大学,人工智能与机器人研究所,陕西,西安,710049 
郑南宁 西安交通大学,人工智能与机器人研究所,陕西,西安,710049 
张志华 西安交通大学,人工智能与机器人研究所,陕西,西安,710049 
摘要点击次数: 2608
全文下载次数: 4122
中文摘要:
      对于大规模问题,分解方法是训练支撑向量机主要的一类方法.在很多分类问题中,有相当比例的支撑向量对应的拉格朗日乘子达到惩罚上界,而且在训练过程中到达上界的拉格朗日乘子变化平稳.利用这一统计特性,提出了一种有效的缓存策略来加速这类分解方法,并将其具体应用于Platt的贯序最小优化(sequential minimization optimization,简称SMO) 算法中.实验结果表明,改进后的SMO算法的速度是原有算法训练的2~3倍.
英文摘要:
      The decomposition methods are main family to train SVM (support vector machine) for large-scale problem. In many pattern classification problems, most support vectors?Lagrangian multipliers are bound, and those multipliers change smoothly during training phases. Based on the facts, an efficient caching strategy is proposed to accelerate the decomposition methods in this paper. Platt抯 sequential minimization optimization (SMO) algorithm is improved by this caching strategy. The experimental results show that the modified algorithm can be 2~3 times faster than the classical SMO for large real-world data sets.
HTML  下载PDF全文  查看/发表评论  下载PDF阅读器
 

京公网安备 11040202500064号

主办单位:中国科学院软件研究所 中国计算机学会 京ICP备05046678号-4
编辑部电话:+86-10-62562563 E-mail: jos@iscas.ac.cn
Copyright 中国科学院软件研究所《软件学报》版权所有 All Rights Reserved
本刊全文数据库版权所有,未经许可,不得转载,本刊保留追究法律责任的权利