10.15918/j.tbit 1001-0645.2019.174
结合加权KNN和自适应牛顿法的稳健Boosting方法
Boosting是机器学习领域中重要的集成学习方法,以AdaBoost为代表的Boosting算法通过在组合弱学习器时不断加强对错分类样本的关注以构建性能优异的强学习器,而该训练机制对噪声点的无差别对待易引发学习器对噪声过拟合,从而削弱算法的稳健性.针对该问题,提出结合加权KNN和自适应牛顿法的稳健Boosting方法.该方法首先通过加权KNN估计样本的噪声先验概率,然后使用噪声先验概率修正Logit损失构建一种新的损失函数,最后采用自适应牛顿法进行损失函数的优化求解.提出方法引导分类器在给予错分类样本更高权重的同时,对噪声先验概率大的样本给予相应的惩罚,使噪声样本的权重得到有效的缩减.结果表明,与其他稳健Boos-ting方法对比,在不同噪声水平下以及真实的医疗数据集的不同评价指标下,该方法表现出更好的稳健性,具有明显的应用价值.
AdaBoost算法、噪声先验概率、加权KNN、损失函数、自适应牛顿法
41
TP399(计算技术、计算机技术)
国家"十三五"科技支撑计划项目SQ2018YFC200004
2021-03-09(万方平台首次上网日期,不代表论文的发表时间)
共9页
112-120