大型语言模型(LLMs)已经从对话界面发展成为能够进行多步推理、使用工具和进行长期规划的自主代理(Wu等人,2023年;Wang等人,2023a年)。如今,这些代理被应用于从软件工程到个人辅助的各个领域,它们面临着越来越多的包含模糊指令、隐藏用户偏好和部分目标不一致的情景(Yu等人,2025年)。在现实世界的LLM代理应用中,混合动机场景非常普遍。所谓混合动机场景,是指各方同时持有共同目标和冲突目标的互动情况。然而,以往的实证研究主要集中在主要合作场景上,因此在理解目标不完全一致时人类如何与LLM代理互动方面存在重要空白(Schelble等人,2022年)。
与主要合作场景不同,混合动机场景引入了关于代理意图、其战略推理以及其目标与人类目标一致性的不确定性。在经典的混合动机场景(如囚徒困境)中,即使合作对双方都有利,LLM代理也经常违反人类的预期(Phelps和Russell,2023年)。这种不可预测性引发了一个问题:人类如何应对非合作性的AI?哪些因素影响了他们与动机不明确的代理合作的意愿?虽然目前大多数关于LLMs的研究都集中在提高回答准确性和减少幻觉现象上(Farquhar等人,2024年;Chelli等人,2024年),但对于代理表现出非合作或意外行为时的人机互动动态知之甚少。特别是,关于代理身份响应如何影响人类合作意愿的研究还很少。填补这一空白对于设计能够在混合动机场景中有效运作的LLM代理至关重要,在这些场景中,合作和冲突目标共存。
人机互动中的合作意图受到人类和AI双方因素的影响。从AI的角度来看,代理呈现的身份和底层模型类型等特征可以影响用户的信任和合作意愿。LLM代理的“黑箱”特性——它们是通过数据驱动方法而非明确规则开发的——是这种战略不确定性的主要来源(Chkirbene等人,2024年;Pan等人,2025年)。当这些代理违反人类预期时,用户会试图通过赋予它们社会意图来解释它们的意外行为(Abbasiantaeb等人,2024年;He等人,2025年)。在混合动机场景中,这种关于代理真实动机的模糊性尤为有害,因为代理的目标可能与用户的不一致,从而导致信任和合作的显著削弱(Wang等人,2024年)。
这些现象可以用“计算机是社会行为体”(CASA)框架(Xu等人,2022年;Geiselmann等人,2023年)来解释,该框架认为人类会本能地将社会启发式方法应用于表现出社会线索的机器。然而,LLMs的出现改变了这些线索的强度。早期的CASA研究通常考察的是具有简单和静态线索的技术,例如预编程的问候语或拟人化头像(Lombard和Xu,2021年;Heyselaar,2023年)。相比之下,LLMs能够以高度响应的方式产生流畅且富有同理心的回应,从而创造出更加强烈的社会存在感(Yang等人,2024年)。这种模仿类人社会智能的前所未有的能力需要重新评估和扩展CASA框架。然而,在混合动机场景下,这些高级的社会感知是如何被调节的仍不清楚。
从人类的角度来看,人机互动中的信任和合作意图受到各种个体差异的影响,如人格特征、先前的AI使用经验和人口统计特征(Zhu等人,2025年;Küper和Krämer,2024年)。在这些变量中,性别特别受到关注,因为它始终能预测社会感知和对代理线索反应的差异(Jermutus等人,2022年)。鉴于有证据表明女性对社交线索和暗示代理性的信号更敏感(Jin和Eastin,2024年),CASA范式可能对女性用户的作用更为显著,可能会影响她们与LLM代理的合作决策。因此,性别是理解人类特征如何影响混合动机场景中信任和合作意图的重要因素。基于这些见解,本研究探讨了LLM代理身份(例如人类、基于规则的或由LLM驱动的)和用户性别如何影响混合动机场景中的合作意图。我们使用经典的囚徒困境模型来引出合作或非合作的选择,并探索调节这些决策的潜在机制。我们关注以下研究问题:
•RQ1: LLM代理的声明身份如何影响用户在囚徒困境中的合作意愿?
•RQ2: 性别如何影响用户在囚徒困境中对LLM代理的合作意愿?
本研究展示了代理身份和用户性别如何共同影响持续混合动机场景中的合作率、决策延迟和信任修复。我们的发现表明:(a) 将代理简单地声明为“由LLM驱动”会显著改变人类的合作意愿;(b) 性别既是AI身份对合作意愿影响的独立预测因素,也是调节因素;(c) 人类在与AI代理的混合动机场景中表现出信任适应。这些结果为设计在混合动机场景中运行的未来AI系统提供了实际见解。