一种训练支撑向量机的改进贯序最小优化算法
DOI:
作者:
作者单位:

作者简介:

通讯作者:

中图分类号:

基金项目:

国家自然科学基金资助项目(60175006;60024301);国家创新研究群体科学基金项目(60024301)


An Improved Sequential Minimization Optimization Algorithm for Support Vector Machine Training
Author:
Affiliation:

Fund Project:

  • 摘要
  • |
  • 图/表
  • |
  • 访问统计
  • |
  • 参考文献
  • |
  • 相似文献
  • |
  • 引证文献
  • |
  • 资源附件
  • |
  • 文章评论
    摘要:

    对于大规模问题,分解方法是训练支撑向量机主要的一类方法.在很多分类问题中,有相当比例的支撑向量对应的拉格朗日乘子达到惩罚上界,而且在训练过程中到达上界的拉格朗日乘子变化平稳.利用这一统计特性,提出了一种有效的缓存策略来加速这类分解方法,并将其具体应用于Platt的贯序最小优化(sequential minimization optimization,简称SMO) 算法中.实验结果表明,改进后的SMO算法的速度是原有算法训练的2~3倍.

    Abstract:

    The decomposition methods are main family to train SVM (support vector machine) for large-scale problem. In many pattern classification problems, most support vectors?Lagrangian multipliers are bound, and those multipliers change smoothly during training phases. Based on the facts, an efficient caching strategy is proposed to accelerate the decomposition methods in this paper. Platt抯 sequential minimization optimization (SMO) algorithm is improved by this caching strategy. The experimental results show that the modified algorithm can be 2~3 times faster than the classical SMO for large real-world data sets.

    参考文献
    相似文献
    引证文献
引用本文

孙剑,郑南宁,张志华.一种训练支撑向量机的改进贯序最小优化算法.软件学报,2002,13(10):2007-2013

复制
分享
文章指标
  • 点击次数:
  • 下载次数:
  • HTML阅读次数:
  • 引用次数:
历史
  • 收稿日期:2000-12-07
  • 最后修改日期:2001-11-05
  • 录用日期:
  • 在线发布日期:
  • 出版日期:
文章二维码
您是第位访问者
版权所有:中国科学院软件研究所 京ICP备05046678号-3
地址:北京市海淀区中关村南四街4号,邮政编码:100190
电话:010-62562563 传真:010-62562533 Email:jos@iscas.ac.cn
技术支持:北京勤云科技发展有限公司

京公网安备 11040202500063号