10.3969/j.issn.1672-2159.2024.05.018
基于YOLO神经网络和迁移学习的结直肠息肉内镜图像分割
目的 基于YOLOv8神经网络开发针对结直肠息肉内镜图像的语义分割模型.方法 收集2018年6月至2024年2月期间的结直肠息肉内镜数据,包括静态图像和视频.所有样本均经过病理学验证,分为锯齿状病变和腺瘤性息肉两类.使用LabelMe工具进行了图像的多边形标注,并转换为YOLO模型兼容的格式.利用这些数据,进行了不同规模的YOLO神经网络模型的迁移学习和微调训练.模型的性能在验证集和测试集上进行了评估,包括精确率(Precision)、检测速度、准确率(ACC)、平均交并比(mIoU)等指标.结果 本研究开发了 5种不同版本大小的YOLOv8语义分割模型,包括v8n、v8s、v8m、v8l、v8x.其中YOLOv8l在速度(107.5帧/s)和精确率(94.50%)达到了最佳平衡,在内部验证集中YOLOv8l的准确率达0.924,mIoU达83.06%,Dice系数达0.941.在外部测试集中,准确率为0.902,mIoU为80.08%,Dice系数为0.923.结论 基于YOLOv8l构建的结直肠息肉语义分割模型具有良好地预测性能,能够自动对息肉进行定位和分类,并精确描述息肉的像素级轮廓.
结直肠息肉、深度学习、语义分割、YOLO、人工智能
29
R574.6;TP181(消化系及腹部疾病)
苏州市第二十三批科技发展计划项目;常熟市医学人工智能与大数据重点实验室能力提升项目;常熟市科技计划项目
2024-09-01(万方平台首次上网日期,不代表论文的发表时间)
共6页
599-604