大型语言模型(LLMs)的出现彻底改变了自然语言处理和对话式AI领域,其应用范围从客户服务扩展到复杂的工业系统(Radford, Wu, Child, Luan, Amodei, & Sutskever, Vaswani, Shazeer, Parmar, Uszkoreit, Jones, Gomez, Kaiser, Polosukhin, 2017)。在工业环境中,基于RAG的对话式AI系统(Gao et al., 2023)被越来越多地用于回答关于关键操作的问题,包括设备维护程序、政策合规性要求和技术文档等。这些系统必须处理多样化的操作场景,工作人员需要从庞大的技术手册、组织政策和操作程序库中获取准确且与上下文相关的信息。然而,在工业环境中部署这些先进的AI系统带来了独特的挑战,尤其是在保持语义精确性、防止类似内容之间的信息交叉污染以及管理用户偏离原始意图的对话偏离方面。
这些挑战在石油和天然气、制造业以及航空航天等高风险工业领域尤为突出,因为错误的信息检索可能导致安全隐患、合规违规和操作失败。例如,在炼油厂中,工程师必须从包含数百种不同类型设备的文档库中检索特定的设备手册,如果检索方法不当,相似的维护程序可能会引起危险混淆。此外,用户有意或无意地偏离原始查询焦点时,会导致对话偏离,从而使系统失去对关键上下文(如特定设备型号、监管框架或安全协议)的跟踪。这些环境的复杂性要求对话式AI系统能够在多轮对话中保持精确的上下文意识,同时防止语义混淆和由于话题变化导致的对话偏离。
当前的检索增强生成(RAG)系统在工业环境中面临三个关键限制。首先,传统的RAG架构在处理不同文档中存在相似内容时的语义歧义时存在困难(Karpukhin et al., 2020)。其次,现有系统缺乏进行精确实体歧义消除所需的结构化知识表示集成,导致典型应用中的上下文丢失(Hogan, Blomqvist, Cochez, D’amato, Melo, Gutierrez, Kirrane, Gayo, Navigli, Neumaier, Ngomo, Polleres, Rashid, Rula, Schmelzeisen, Sequeda, Staab, Zimmermann, 2021, Pan, Luo, Wang, Chen, Wang, & Wu)。第三,现有方法无法充分防止工业领域中的对话偏离或保持对特定主题的关注,从而可能在安全关键应用中产生潜在的危险错误信息(Paranjape, Kale, Joshi, Jain, Saha, Agrawal, Jain, Saha, Jain, Agrawal, et al., Yoshida, Hiraoka, Neubig, Sakti, Toda, Nakamura, 2014)。这些限制凸显了当前AI技术中的根本缺陷,需要将结构化知识与对话能力相结合。
图1展示了设备维护(左侧部分)和政策查询(右侧部分)领域的示例,说明了在包含重叠内容的RAG设置中,相似内容如何导致错误响应和信息交叉污染。在设备维护示例中,当炼油厂工程师询问电机安装程序时,系统必须保持对特定电机型号(例如“X100”与“Y200”)的上下文。然而,系统对Q1和Q2都给出了相同的响应,因为检索系统主要从电机X100的相关内容中获取信息,导致不同电机规格之间的信息交叉污染。这是因为检索到的信息缺乏明确的型号标识符(“X100”或“Y200”),从而产生无意的偏见,可能导致不准确的信息,并可能影响关键的合规决策。用户可能会偏离修复“Y200”电机的目标,因为后续问题大多由系统提供的当前响应决定,进一步加剧了信息交叉污染的问题。
同样,在政策查询示例中,当用户询问不同部门或角色的休假政策时,由于政策文档中的内容重叠,系统可能会对不同的查询给出相同的响应。这种无法区分部门特定或角色特定政策的情况可能导致错误信息和合规风险。
为了解决这些根本挑战,我们提出了OntoLLM这一新型框架,它将本体论和知识图谱与大型语言模型相结合,以增强对话式AI系统。OntoLLM利用结构化知识表示来提高上下文理解能力,防止话题偏离,并确保在多领域场景中准确的信息检索。我们的方法引入了创新的“问题”节点,将结构化知识图谱与非结构化文档内容连接起来,实现精确的上下文跟踪和保持对话连贯性。该框架采用基于本体论的查询生成机制,确保目标导向的对话,并利用知识图谱关系在多轮交互中保持特定实体的上下文。
本工作的关键贡献包括:
OntoLLM框架:一种新型架构,它在推理时将本体论和知识图谱与LLMs相结合,无需重新训练模型即可灵活地整合特定领域的知识。
问题节点创新:引入了动态的“问题”节点,将结构化知识图谱与非结构化文档内容连接起来,实现精确的上下文跟踪和防止信息交叉污染。
基于本体论的查询生成:一种系统化的方法,用于生成有针对性的、目标导向的查询,利用领域特定的知识结构来保持对话的相关性。
上下文感知的响应机制:一种通过知识图谱关系跟踪和特定实体上下文保持来维持多轮对话连贯性的新方法。
本文的其余部分安排如下:第2节详细介绍关键概念,第3节回顾相关文献,第4节正式定义问题,第5节描述OntoLLM框架,第6节介绍实验设置,第7节展示实验结果,第8节分析错误传播风险及改进途径,第9节总结OntoLLM的关键贡献。