在人工智能技术席卷医疗领域的今天,大语言模型(Large Language Models, LLMs)已成为眼科医生潜在的智能助手,能够解答专业问题、辅助诊断甚至参与手术规划。然而,这些模型在涉及健康社会决定因素(Social Determinants of Health, SDoH)——那些深刻影响患者出生、成长、生活和工作环境的社会性因素——的问题上表现如何,却是一个尚未解开的谜题。更令人担忧的是,由于训练数据中可能存在的偏见,这些AI助手是否会在不经意间放大医疗领域已有的不平等现象,成为眼科医疗公平性的"隐形杀手"?
来自约翰斯·霍普金斯大学威尔默眼科研究所的Elizabeth T. Wang等研究者决定揭开这一谜底。他们敏锐地意识到,虽然LLMs在标准化眼科知识测试中表现优异,甚至超越人类考生,但其对SDoH这一关键领域的理解却鲜有关注。而SDoH恰恰是影响眼科诊疗结局的重要驱动因素,涉及种族、性别、年龄、社会经济地位等多维度变量。
这项发表于《Asia-Pacific Journal of Ophthalmology》的研究为我们敲响了警钟:在将LLMs引入眼科临床实践之前,必须对其在SDoH领域的知识盲点和潜在偏见进行严格评估。想象一下,如果政策制定者依赖一个有偏见的AI系统来设计糖尿病视网膜病变筛查计划,资源分配的不公可能会被进一步放大。而模型在儿科眼病领域的薄弱表现,则提示我们需要特别谨慎地在儿童眼科应用中使用这些技术。