在调优NLP模型时使用J-K-fold交叉验证来减少方差
K-fold交叉验证(CV)是估计机器学习模型真实性能的常用方法.CV的过程需要数据的随机划分,因此性能评估实际上是随机的,具有可变性,这对于自然语言处理任务是非常重要的.所以建议使用较少变化的J-K-fold CV,其中J个独立的K-fold交叉验证用于评估性能.实验结果表明,通过重复的J-K-fold交叉验证进行调优能减少方差.
J-K-fold交叉验证、自然语言处理、调优
15
TP393(计算技术、计算机技术)
2019-04-17(万方平台首次上网日期,不代表论文的发表时间)
共2页
8-9