10.3778/j.issn.1002-8331.1407-0563
递减样本集成学习算法
从多个弱分类器重构出强分类器的集成学习方法是机器学习领域的重要研究方向之一。尽管已有多种多样性基本分类器的生成方法被提出,但这些方法的鲁棒性仍有待提高。递减样本集成学习算法综合了目前最为流行的boosting与bagging算法的学习思想,通过不断移除训练集中置信度较高的样本,使训练集空间依次递减,使得某些被低估的样本在后续的分类器中得到充分训练。该策略形成一系列递减的训练子集,因而也生成一系列多样性的基本分类器。类似于boosting与bagging算法,递减样本集成学习方法采用投票策略对基本分类器进行整合。通过严格的十折叠交叉检验,在8个UCI数据集与7种基本分类器上的测试表明,递减样本集成学习算法总体上要优于boosting与bagging算法。
集成学习、基本分类器、训练子空间、递减、置信度
52
TP39(计算技术、计算机技术)
国家自然科学基金No.11201134;天津市自然科学基金一般项目No.12JCYBJC31900。
2016-07-15(万方平台首次上网日期,不代表论文的发表时间)
共7页
69-74,140