基于深度学习的不良药品质量缺陷报告自动分类与优先级判定系统研发及其应用验证

时间:2026年3月15日
来源:Scientific Reports

编辑推荐:

【推荐语】为应对不合格药品质量缺陷对公共健康构成的威胁,急需高效分类和优先处理相关报告。本研究利用2010-2021年间收集的13,830份报告,构建了一个基于前沿自然语言处理算法的深度学习系统,用于对21类健康产品缺陷报告进行自动化分类与优先级判定。该系统Top-1准确率达86%,并通过可解释性特征辅助决策。研究表明,该系统可标准化病例分诊流程,显著提升对高公共卫生影响质量缺陷的响应效率。

广告
   X   

在医药安全领域,一个长期存在的挑战摆在监管者和医务人员面前:每年,数以万计关于药品、医疗器械等健康产品存在质量缺陷的报告被提交至药物警戒系统。这些缺陷范围很广,从颜色异常、包装破损,到活性成分含量不足,都可能对患者安全构成直接威胁。然而,处理这些报告的传统方式往往效率低下,高度依赖人工审查和专家经验,导致对高风险、高公共卫生影响事件的响应迟缓。在“海量数据、有限专家”的现实矛盾下,如何快速、准确地从堆积如山的报告中识别出最需要优先处理的案例,并采取及时的监管措施,成为一道亟待破解的难题。正是在这样的背景下,一项旨在利用人工智能为药品安全监管注入新动力的研究应运而生。该研究聚焦于开发一个能够自动分类和优先处理健康产品缺陷报告的深度学习系统,以标准化分诊流程,优化资源配置,最终守护公众用药安全。这项研究成果已发表在学术期刊《Scientific Reports》上。
研究人员为开展此项研究,主要应用了以下几项关键技术方法:首先是构建了大规模、高质量的数据集,利用了2010年至2021年间收集的共计13,830份真实的健康产品缺陷报告,并由一个药物警戒专家小组遵循标准化医学术语将其标记为21个不同的缺陷类别。其次,研究采用了先进的深度学习算法,特别是最前沿的自然语言处理语言模型,以从报告文本中提取丰富的特征信息用于分类任务。再次,研究集成了模型可解释性技术,能够揭示影响模型决策的关键词语,为结果提供解读依据。最后,研究采用了前瞻性数据验证方法,以评估模型在实际应用中的性能。
结果
模型性能表现
研究团队开发的深度学习系统在健康产品缺陷报告的分类任务上表现出色。在评估中,模型达到了86%的Top-1准确率、93%的Top-2准确率和96%的Top-3准确率,表明其能够高精度地将报告归入最可能的几个缺陷类别中。
样本量与模型性能的相关性分析
统计分析揭示,模型的性能与其所训练的各类别样本量存在显著的统计学关联。Top-1、Top-2和Top-3准确率与样本量的皮尔逊(Pearson)相关系数(r)分别为0.643、0.735和0.635,其对应的p值分别为0.0016、0.0001和0.0020,置信区间(CI)也均未包含零,证实了样本量越大,模型在该类别上的分类表现越好的趋势。
置信度与模型性能的相关性分析
另一个关键发现是模型输出置信度与预测准确性之间也存在强烈的正相关关系。分析显示,模型预测的置信度分数与其实际准确性之间的皮尔逊相关系数高达0.927,p值小于0.00001,这为利用置信度筛选高可信度预测、辅助人工复核提供了量化依据。
特征可解释性分析
通过可解释性技术对模型决策进行分析,研究人员发现,在模型判断过程中最具影响力的词语,在概念和语义上都与它们所对应的具体产品缺陷类别密切相关。例如,在判断“颜色变化”类缺陷时,与颜色相关的词汇权重更高。这一发现增强了模型决策的透明度和可理解性,使监管人员能够理解模型做出特定分类的原因。
前瞻性验证
为评估模型的实用性,研究使用前瞻性数据对模型进行了验证,测试了模型在“未来”新报告上的表现,证实了其在实际部署场景中的有效性和鲁棒性。
结论与讨论
本研究成功开发并验证了一个基于深度学习的系统,用于自动化分类和优先处理健康产品缺陷报告。该系统实现了高准确率的分类,并且其性能与训练数据规模及模型自身的置信度水平显著相关。尤为重要的是,研究通过集成可解释性特征,使模型的决策过程变得可理解,为监管决策者提供了具有可操作性的洞察,而不仅仅是“黑箱”预测。
这项工作的核心意义在于,它直接回应了当前药物安全监测领域对高效报告分类和优先级判定系统的迫切需求。传统的、依赖人工的方法在面对海量报告时,面临着效率低下、标准不一、响应延迟等挑战。本研究所开发的系统,能够实现缺陷报告分类的标准化和自动化,有望显著优化病例分诊和处理的整体工作流程。通过快速识别出具有高公共卫生影响的风险信号,该系统能够促使监管机构更迅速地采取针对性措施,从而更有效地保护公众健康免受不合格或存在缺陷的健康产品的危害。该系统的应用,代表了人工智能技术在提升药品安全监管效能、实现智能化药物警戒方面迈出的重要一步。

生物通微信公众号
微信
新浪微博


生物通 版权所有