证据推理规则学习

时间:2026年1月6日
来源:IEEE Transactions on Artificial Intelligence

编辑推荐:

提高可靠AI模型在关键领域应用的重要性,提出ER2学习策略通过可信度评估、自适应训练和证据推理实现模型优化,实验证明其新方法NER2在诊断、自动驾驶等领域表现更优。

广告
   X   

影响声明:
构建可靠的人工智能模型对于将其应用于实际场景至关重要。在本文中,研究了一种新的ER2学习策略,以实现模型的可信度、适应性和可解释性...显示更多

摘要:

近年来,人工智能(AI),特别是机器学习(ML),取得了显著的进展。然而,由于对构建可靠ML模型的担忧,ML在实际应用中的实施仍然受到限制。为了解决这一挑战,确保模型可靠性需要关注三个主要方面:可信度、适应性和可解释性。为了以统一的方式实现这些目标,提出了一种新的可靠学习模式,该模式包括训练、适应、测试和第二决策阶段,以扩展传统的训练-测试模式。基于这一框架,开发了一种新的证据推理规则学习(ER2L)策略,在该策略中,定义了个体可靠性来调整训练模型以更好地适应测试样本,并引入了整体可靠性来衡量模型输出在第二决策中的可信度。此外,由于ER2作为一种概率推理引擎,该模型是可解释的。在ER2L的基础上,提出了一种新的ML方法,称为Naïve ER2(NER2)。实验研究表明,通过引入个体可靠性进行模型调整,NER2可以获得更好的性能,而整体可靠性可以合理地评估模型输出的可信度。

引言

在过去的几十年里,人工智能(AI),特别是机器学习(ML),取得了显著的成就。ML从数据中识别模式和提取知识的能力使其在计算机视觉[1]、自然语言处理[2]、面部识别[3]和医学图像分析[4]等不同领域得到了广泛应用。现有的监督学习方法总是包括训练和测试阶段[5]。在训练阶段,将标记的训练数据输入到预先选定的模型中,并通过验证样本调整模型参数或架构来提高模型性能。在测试阶段,将未知样本输入到训练好的模型中,得到相应的输出概率或标签。然而,在高风险的决策领域,如计算机辅助诊断[6]、治疗结果预测[7]、自动驾驶[8]等,决策的责任以及数据的使用方式至关重要,以避免出现意外的严重错误[9]。例如,临床实践中的误诊可能会危及患者[10]。如果不对误诊的信心进行适当的评估,或者在临床工作中不考虑模型的可信度,可能会导致后续的错误结论[11]。

生物通微信公众号
微信
新浪微博


生物通 版权所有