摘要:为了研究偏置对支持向量回归(support vector regression,简称SVR)问题泛化性能的影响,首先提出了无偏置SVR(NBSVR)的优化问题及其对偶问题.推导出了NBSVR 优化问题全局最优解的必要条件,然后证明了SVR 的对偶问题只能得到NBSVR 对偶问题的次优解.同时提出了NBSVR 的有效集求解算法,并证明了它是线性收敛的.基于21 个标准数据集的实验结果表明,在对偶问题解空间上,有偏置支持向量回归算法只能得到无偏置支持向量回归算法的次优解,NBSVR 的均方根误差要低于SVR.NBSVR 的训练时间不仅低于SVR,而且对核参数变化不太敏感.