基于CT影像的胃癌T分期可解释深度学习模型GTRNet:一项多中心研究

时间:2025年12月21日
来源:npj Digital Medicine

编辑推荐:

本文针对胃癌术前T分期准确性不足的临床难题,开发了一种无需人工标注的端到端深度学习框架GTRNet。研究通过多中心回顾性数据(n=1,792)验证,模型在内外测试集中AUC达0.86-0.95,准确率81-85%,显著优于放射科医生。结合临床指标构建的列线图进一步优化了术前决策,为个体化治疗提供新工具。

广告
   X   

胃癌是全球癌症相关死亡的主要原因之一,准确术前T分期对治疗决策至关重要。目前,增强CT是术前评估标准,但传统判读存在主观性强、准确性有限的问题,总体准确率约65-75%,尤其在区分T2与T3分期、识别微小浆膜侵犯方面困难显著。内镜超声(EUS)虽能清晰显示胃壁层次,但对晚期或近端病变准确性下降,且高度依赖操作者经验。尽管双增强超声等辅助手段在经验丰富的中心表现出色,但普及度有限。因此,临床亟需客观、精准的T分期新工具。
人工智能(AI)尤其是卷积神经网络(CNN)在医学影像分析中展现出强大潜力,但在胃癌影像研究中,多数成果集中于“早期vs晚期”的二分类任务,或依赖耗时的手动分割,限制了临床推广。为此,郑国良、王欢等团队在《npj Digital Medicine》发表研究,开发了名为GTRNet的可解释端到端深度学习框架,旨在实现基于常规CT影像的胃癌T1-T4四分类自动分期。
研究采用多中心回顾性设计,纳入三家三级医院2015年至2021年接受根治性手术的1,792例胃癌患者。所有患者均行门静脉期增强CT扫描,图像经各向同性重采样(1×1×1 mm³)、强度标准化(HU范围-1024至1024)等预处理。模型以修改的ResNet-152为骨干网络,引入并行最大池化与中心裁剪流,聚焦局部肿瘤细节与胃周上下文信息。训练中使用迁移学习、数据增强(随机翻转、旋转、强度扰动)及自适应早停策略,避免过拟合。外部验证时,采用关键层面及其相邻三张图像多数投票整合预测结果,提升稳定性。
研究结果
GTRNet模型性能
在内部测试集(n=239)中,GTRNet四分类准确率达89.9%,宏观AUC为0.97;外部测试集(n=600)准确率87-94%,AUC 0.91-0.95,显著优于放射科医生独立诊断(准确率55.3-59.7%)。模型对T1、T2期敏感性高达98.5-99.0%与93.0-97.8%,对T3、T4期亦达83.3%与81.7-93.3%。
Grad-CAM可解释性分析
热力图显示模型注意力与放射科医生标注区域高度重合:T1期聚焦胃壁内层,T4期延伸至肿瘤与邻近器官界面。Dice系数(T1:0.56, T4:0.63)表明模型能准确定位分期关键解剖结构。
列线图整合与临床效用
将深度学习放射组学评分(Rad-score)与肿瘤大小(≥5 cm)、低分化、弥漫型Lauren分型结合,构建有序逻辑回归模型。列线图校准良好,决策曲线分析显示AI模型在多数阈值概率下净收益高于EUS,过度治疗率(2.09% vs 12.97%)与治疗不足率(2.51% vs 17.57%)均显著降低。
讨论与结论
GTRNet通过端到端架构避免了手动分割,实现了多中心验证下的稳健T分期,其热力图机制增强了临床可信度。结合临床指标的列线图有望优化新辅助治疗决策,例如识别CT隐匿性浆膜侵犯或避免早期肿瘤过度治疗。研究局限性包括T4a/T4b合并分析、样本仅来自中国人群、未涵盖N/M分期。未来可探索Transformer或3D CNN架构、脉冲神经网络优化实时性,并整合多组学数据构建数字孪生模型。该研究为胃癌术前精准分层提供了自动化、可解释的AI解决方案,推动个体化治疗进展。

生物通微信公众号
微信
新浪微博


生物通 版权所有