10.3778/j.issn.1673-9418.1609009
非均衡加权随机梯度下降SVM在线算法
随机梯度下降(stochastic gradient descent,SGD)方法已被应用于大规模支持向量机(support vector machine,SVM)训练,其在训练时采取随机选点的方式,对于非均衡分类问题,导致多数类点被抽取到的概率要远远大于少数类点,造成了计算上的不平衡.为了处理大规模非均衡数据分类问题,提出了加权随机梯度下降的SVM在线算法,对于多数类中的样例被赋予较小的权值,而少数类中的样例被赋予较大的权值,然后利用加权随机梯度下降算法对SVM原问题进行求解,减少了超平面向少数类的偏移,较好地解决了大规模学习中非均衡数据的分类问题.
随机梯度下降(SGD)、权、非均衡数据、大规模学习、支持向量机(SVM)
11
TP181(自动化基础理论)
The Natural Science Foundation of Hebei Province under Grant No. F2015201185
2017-10-31(万方平台首次上网日期,不代表论文的发表时间)
共10页
1662-1671