编辑推荐:
这篇研究通过扩展的统一技术接受与使用模型(UTAUT),系统评估了生成式人工智能(GenAI)对医学研究者诚信意识与行为的影响。研究发现:绩效期望(PE)、努力期望(EE)、技术环境(TE)、技术信任(TT)和支持条件(SC)正向促进诚信意识,而GenAI焦虑(AY)与感知风险(PR)呈负向影响;支持条件和诚信意识进一步正向预测诚信行为。研究为医学研究生态中GenAI的伦理治理提供了实证依据。
社会背景:医学研究诚信面临新兴挑战
医学研究直接关乎人类生命健康,其伦理标准与社会责任远高于其他学科。近年来全球医学论文撤稿量显著上升,多起学术不端事件引发公众信任危机。任何诚信缺失都可能导致误导性医学结论,不仅损害学术公信力,更会危及患者安全。
技术背景:GenAI全面渗透医学研究全周期
GenAI通过神经网络和深度学习算法生成多模态内容,在医学研究中展现出文本生成、数据处理、图像分析等领域的巨大潜力。领域专用模型如BioMedLM 2.7B、Med-PaLM 2等已应用于疾病筛查、药物开发和临床决策支持。然而其强大的生成能力也引发了数据隐私、算法偏见、知识产权归属等伦理争议。
理论框架:扩展UTAUT模型
研究整合技术信任、GenAI焦虑和感知风险等新维度,构建了"技术认知-心理情绪-伦理行为"的分析框架:
技术驱动因素:绩效期望(β=0.125)和努力期望(β=0.084)通过提升研究效率正向影响诚信意识
环境支持因素:技术环境(β=0.151)和支持条件(β=0.118)通过明确使用规范降低非故意违规
心理阻碍因素:技术信任(β=0.228)增强输出可靠性认知,而焦虑(β=-0.109)和感知风险(β=-0.085)诱发回避行为
关键发现
对718名中国医学研究者的调查显示:
应用场景:71.5%用于论文写作,65.9%用于代码生成,52.1%用于文献管理
工具偏好:文心一言(69.4%)和ChatGPT(57.4%)占据主导
认知水平:仅6.1%对研究诚信"非常熟悉",38%停留在"一般了解"
实践启示
技术优化:开发医学专用GenAI审核模块,确保临床数据和影像分析的可解释性
制度构建:建立"国家期刊-机构"三级监管体系,明确AI辅助内容的披露标准
心理干预:针对职业竞争压力导致的焦虑,开展负责任研究(RCR)培训
未来方向
需开展跨学科研究,特别关注:
不同医学专业对GenAI伦理风险的差异化认知
文化背景对技术信任形成的影响机制
评价体系如何平衡创新效率与伦理约束
该研究为制定《医学AI研究伦理指南》提供了实证基础,其"技术-心理-制度"协同治理框架对保障生命健康领域的科研质量具有重要参考价值。
生物通 版权所有