机器学习与深度学习在阿尔茨海默病诊断中的进展:一项全面综述

时间:2026年2月14日
来源:ARTIFICIAL INTELLIGENCE REVIEW

编辑推荐:

本文针对阿尔茨海默病(AD)传统诊断方法存在主观性及资源可及性限制的问题,系统回顾了机器学习(ML)与深度学习(DL)在该领域的应用。综述涵盖ADNI、OASIS等关键数据集、预处理技术及CNN、GNN、ViT等多种DL模型,探讨了其如何提升早期诊断的准确性,并整合可解释人工智能(XAI)以提高模型透明度。此研究为开发更精准、可靠的AI驱动诊断工具提供了综合视角。

广告
   X   

在全球范围内,阿尔茨海默病(Alzheimer‘s disease, AD)作为一种慢性神经系统疾病,是导致痴呆的最主要原因之一。随着人口老龄化加剧,其发病率持续攀升,给个人、家庭及社会带来了沉重的负担。然而,传统的诊断方法,如临床评估和神经心理学测试,往往具有较强的主观性,且依赖于专家的经验与医疗资源的可及性,这导致早期和精准诊断面临巨大挑战。尤其是在疾病初期,症状微妙且易与其他认知障碍混淆,错失早期干预的黄金窗口。因此,开发客观、高效且可推广的早期诊断工具,成为医学界亟待解决的关键问题。
近年来,人工智能技术的迅猛发展为这一难题带来了曙光。机器学习(Machine Learning, ML)和深度学习(Deep Learning, DL)作为人工智能的核心分支,在医学影像分析领域展现出前所未有的潜力。它们能够从海量的医学图像数据中自动学习并识别出人眼难以察觉的细微模式与特征,为实现阿尔茨海默病的自动化、高精度早期检测提供了新的可能。发表在《ARTIFICIAL INTELLIGENCE REVIEW》上的这篇题为《Advances in Alzheimer’s disease diagnosis with machine learning and deep learning techniques: a comprehensive review》的综述文章,正是对ML和DL技术在AD诊断领域最新发展的系统性梳理与全面分析。它不仅回顾了已有成果,更指出了当前研究的空白与未来方向,旨在为研究者提供一个清晰的路线图,推动AI技术在神经退行性疾病诊断中的实际应用。
为了开展这项全面的综述研究,作者团队采用了系统性的文献检索与筛选方法。他们从ScienceDirect、SpringerLink、IEEE Xplore等多个高质量学术数据库中初步收集了450篇相关论文。通过严格的标题、摘要筛选及全文审查,依据既定的纳入与排除标准(例如,排除综述文章、会议论文及信息不完整的文献),最终精选出75篇高质量研究作为分析基础。这项研究聚焦于几个核心技术层面:首先,详细评述了用于AD研究的关键公共数据集,如阿尔茨海默病神经影像学倡议(Alzheimer‘s Disease Neuroimaging Initiative, ADNI)、开放访问系列影像研究(Open Access Series of Imaging Studies, OASIS)和澳大利亚成像、生物标志物和生活方式衰老研究(Australian Imaging, Biomarkers and Lifestyle Study of Ageing, AIBL),并分析了它们的优势、局限及对DL应用的适用性。其次,系统总结了提升数据质量的预处理技术,包括图像重采样、标准化、颅骨剥离、数据增强等。接着,深入探讨了用于AD诊断的核心DL算法,包括卷积神经网络(Convolutional Neural Network, CNN)、图神经网络(Graph Neural Network, GNN)和视觉Transformer(Vision Transformer, ViT),并介绍了ResNet10、VGG16、DA-MIDL、AMTI-GCN、ROI-3DViT-DBN、BiViT等具体架构。此外,研究还强调了可解释人工智能(Explainable AI, XAI)技术在提高模型决策透明度方面的重要性。最后,通过对不同模型在各类数据集上的性能结果进行对比分析,总结了当前面临的挑战并提出了未来的研究方向。
研究结果
数据集与预处理:研究指出,高质量的数据集是DL模型训练和验证的基石。ADNI、OASIS和AIBL是当前最常用的数据集,它们提供了大量的结构性磁共振成像(sMRI)、功能性磁共振成像(fMRI)和正电子发射断层扫描(PET)数据。然而,这些数据集也存在规模有限、类别不平衡(正常对照样本远多于患者样本)以及采集协议不一致等挑战。为了应对这些挑战,有效的预处理流程至关重要。常用的技术包括图像重采样和标准化以统一格式,颅骨剥离以移除非脑组织,大脑区域分割以聚焦感兴趣区域,以及数据增强(如旋转、翻转)来人工扩充数据集,缓解过拟合问题。
深度学习算法:文章详细分析了CNN、GNN和ViT三大类DL架构在AD诊断中的应用。
  • CNN及其变体:CNN因其卓越的图像特征提取能力而被广泛应用。例如,ResNet10通过残差连接解决了深度网络中的梯度消失问题,被用作多模态阿尔茨海默病网络(MADNet)的骨干网络。VGG16则常通过迁移学习(Transfer Learning)进行微调,以适应医学图像数据。DA-MIDL模型结合了多示例学习(Multi-Instance Learning, MIL)和注意力机制,能够关注sMRI图像中与脑萎缩最相关的局部区域。
  • GNN:GNN擅长处理图结构数据,非常适合对大脑连接网络(由脑区为节点、连接强度为边构成)进行分析。AMTI-GCN模型集成了图注意力机制和多任务学习,既能提升分类性能,又能提供对疾病相关脑区的解释。RSGCN则构建了样本特异性的脑区到样本图,利用图卷积来捕捉脑区之间的关系。
  • ViT:ViT利用自注意力机制捕捉图像块之间的全局依赖关系。ROI-3DViT-DBN模型先将大脑MRI分割成138个预设的兴趣区域,对每个区域单独应用3D ViT,再通过深度信念网络集成所有区域的预测结果。BiViT是一种双视觉Transformer,旨在通过交叉注意力机制融合sMRI和PET等多模态成像数据,以获取互补信息。DeiT则通过知识蒸馏(Knowledge Distillation)技术在数据有限的情况下高效训练ViT模型。
可解释人工智能(XAI):为了提高“黑箱”DL模型在临床中的可信度,XAI技术被引入。常用的方法包括沙普利加和解释(SHAP)、局部可解释模型不可知解释(LIME)、以及通过梯度加权类激活映射(Grad-CAM)生成的显著性图(Saliency Maps)。这些技术能够可视化模型做出决策时所关注的大脑区域,例如突出显示海马体、脑皮层等已知与AD相关的萎缩区域,从而帮助临床医生理解和验证模型的预测。
结果分析:文章对基于不同成像模态(MRI、sMRI、fMRI)和不同DL架构(CNN、GNN、ViT)的研究进行了详细的性能对比分析。结果显示,在ADNI、OASIS等数据集上,许多模型都取得了超过90%甚至99%的分类准确率、灵敏度(Sensitivity)和特异度(Specificity)。例如,一篇研究中的CNN模型在ADNI数据集上取得了99.84%的准确率,而另一篇研究中的ViT模型在Kaggle数据集上取得了99.83%的准确率。融合多模态数据或多架构的混合模型(如CNN+GNN, ViT+GRU)往往能获得更具竞争力的性能。表格对比清晰地展示了不同方法在标准化评估指标下的表现。
研究结论与讨论
本综述系统性地论证了机器学习与深度学习技术在阿尔茨海默病诊断,尤其是早期诊断中,具有巨大的应用潜力和价值。通过整合多源异构的神经影像数据,并利用CNN、GNN、ViT等先进的模型架构,AI系统能够自动、准确地识别出AD相关的细微脑部变化,其性能在许多研究中已超越传统方法,展现出高精度、高敏感度的特点。同时,可解释人工智能技术的融入,正逐步打破AI模型的“黑箱”困境,为临床决策提供可追溯、可理解的依据,增强了医生对AI辅助诊断系统的信任。
然而,研究也明确指出,要将这些实验室中的高性能模型转化为广泛适用的临床工具,仍面临一系列严峻挑战:数据层面,存在公开数据集规模有限、类别不平衡、以及来自不同扫描设备和人群的数据异质性(即泛化能力问题);技术层面,复杂模型带来的高计算成本、以及潜在的过拟合风险不容忽视;临床层面,模型对较少见痴呆类型(如额颞叶痴呆)的识别可能存在偏差,且最终的模型决策逻辑仍需进一步提高透明度和解释性。
针对这些挑战,文章提出了未来可能的研究方向:构建更大规模、多中心、标注标准化的共享数据集;发展如生成对抗网络(GAN)等数据合成技术以改善类别不平衡;探索联邦学习(Federated Learning)在保护数据隐私下的协同建模;优化模型结构(如使用MobileNet、EfficientNet等轻量级网络)以降低计算开销;深化XAI研究,开发更贴合临床需求的解释工具;以及推动跨模态(影像、基因、临床量表)信息的融合,以构建更全面、鲁棒的诊断系统。
总之,这篇综述不仅全面梳理了ML/DL在AD诊断中的当前进展,更如同一张精准的航海图,为后续研究者指明了存在的“暗礁”与前进的“航道”。它强调,未来的成功不仅取决于算法本身的创新,更依赖于数据、算法、可解释性以及临床实践之间的深度融合。随着这些关键问题的逐步解决,人工智能有望真正成为神经科医生手中一项强大、可靠且透明的工具,为实现阿尔茨海默病的早发现、早干预、早治疗做出决定性贡献,最终改善数百万患者及其家庭的生活质量。

生物通微信公众号
微信
新浪微博


生物通 版权所有