人工智能(AI)是指模仿人类认知功能(如学习、推理和决策)的技术(Suleimenov等人,2020年)。在教育领域,AI通过智能辅导系统、自动评分平台、虚拟患者和聊天机器人等工具得到应用(Holmes和Tuomi,2022年)。算法偏见指的是由于训练数据有误或模型设计存在偏见而导致AI输出出现系统性错误,从而对用户造成不公平或不平等对待的情况。透明度是指AI系统向最终用户(包括学生和教育者)清晰传达其内部决策过程的能力(Baker和Hawn,2022年)。例如,如果一个AI系统主要基于英语学生或资源丰富的学术环境的数据进行训练,它可能无法准确评估来自不同语言、文化或社会经济背景的学习者的输入。这种偏见会影响学生的学习评估方式、内容呈现方式以及所代表的观点。随着AI在教育中的广泛应用,此类偏见的风险日益突出。
人工智能(AI)通过智能辅导系统、虚拟模拟和自动评分等工具越来越多地应用于护理教育。虽然这些技术提高了效率和个人化学习体验,但对算法偏见和透明度缺乏的担忧日益增加,这可能损害教育公平性,影响学习成果,并削弱学习者和教育者的信任。当用户无法理解决策过程或认为结果不公平时,他们对AI工具及其应用机构的信心会显著下降(De Gagne,2023年)。预计到2030年,全球医疗保健教育领域的AI市场规模将超过56亿美元,这得益于对可扩展、技术增强型培训需求的增长。这些技术有望实现个性化教学、提高学习参与度并简化教育评估。尽管AI在护理教育中具有巨大潜力,但伦理挑战(尤其是算法偏见和透明度问题)仍未得到充分理解和解决(Chang等人,2022年;Glauberman等人,2023年)。
随着AI在教育中的广泛应用,其潜在影响需要更加密切的审视,特别是偏见和透明度问题,因为这些问题往往相互强化。基于狭隘数据集训练的系统可能产生不公平的结果,而不透明的决策过程则难以识别和纠正这些差异(Rony等人,2024年)。例如,自动评分工具可能低估与主流学术规范不同的写作风格或推理模式,而虚拟患者模拟可能无法反映实际临床实践中的文化多样性(Buchanan等人,2020年;Glauberman等人,2023年)。另一个关键问题是许多AI系统缺乏透明度。这些常被称为“黑箱”的工具无法清晰展示其决策过程,使学生和教育者难以理解或质疑结果。这种缺乏清晰度的现象会削弱信任并降低技术的实际应用效果(Chang等人,2022年)。
尽管关于AI在护理教育中的研究正在扩展,但相关文献在处理算法偏见问题时仍存在碎片化现象。大多数研究仅关注个别工具或孤立的偏见形式,而没有将这些技术问题与支撑护理教育的更广泛的伦理和教学价值观联系起来。因此,目前尚缺乏对不同类型偏见如何产生、哪些结构或数据相关因素导致这些偏见,以及它们如何影响教育公平性的整体理解。此外,诸如包容性数据实践或可解释性功能等缓解策略往往缺乏明确的实施指导。本综述旨在通过整合多种证据,提供一个全面且基于伦理的视角来探讨算法偏见问题,从而支持更公平、透明且符合伦理的AI在护理教育中的整合。
本综述旨在应对对算法偏见如何影响护理教育的日益增长的需求。随着AI工具越来越多地塑造学习、评估和临床模拟,确保这些技术体现并强化护理教育的核心伦理承诺(即教育机会的公平性、设计和交付的包容性以及未来从业者文化能力的培养)至关重要。虽然这些价值观相互关联,但它们在不同层面上发挥作用:公平性和包容性决定了学习环境的结构和可访问性,而文化能力则是这些环境的重要成果。当对偏见的原因和后果理解不足时,AI系统可能会加剧各种不平等现象。为解决这一差距,本综述综合了关于护理教育中使用的AI工具的偏见和透明度方面的现有研究,旨在为教育者、开发者和政策制定者提供如何设计和实施符合护理价值观的公平、可信AI系统的全面理解。通过整合关于偏见类型、根本原因和缓解策略的见解,本综述有助于创建更加透明、包容且符合伦理的学习环境。
本综述旨在全面理解算法偏见如何影响护理教育。随着AI工具不断塑造学习、评估和临床模拟,确保这些技术体现并强化护理教育的核心伦理承诺(即教育机会的公平性、设计和交付的包容性以及未来从业者的文化能力培养)至关重要。虽然这些价值观相互关联,但它们在不同层面上发挥作用:公平性和包容性决定了学习环境的结构和可访问性,而文化能力则是这些环境的重要成果。当对偏见的原因和后果理解不足时,AI系统可能会加剧各种不平等现象。为解决这一差距,本综述综合了关于护理教育中使用的AI工具的偏见和透明度方面的现有研究,旨在为教育者、开发者和政策制定者提供如何设计和实施符合护理价值观的公平、可信AI系统的全面理解。具体目标如下:
- 识别护理教育中常用的AI工具,并分析它们如何引入或加剧算法偏见。
- 分析算法偏见的关键维度,包括透明度、可解释性及其伦理和教育影响。
- 探索现有的偏见缓解策略,以促进AI在护理教育中的公平、可信使用。
本综述基于一个将核心护理价值观与当代AI伦理原则相结合的伦理框架。借鉴美国护士协会的伦理准则及相关指导,重点关注公平性、问责制、包容性、文化能力和以患者为中心的理念作为护理教育的基础承诺。从AI伦理的角度来看,透明度、无害性和公正性等原则得到了WHO和UNESCO等机构的阐述。AI工具被视为中介教育过程(如评估、模拟和反馈)的社会技术系统,从而影响包括公平性、信任和文化能力在内的成果。机构治理和AI素养被视为可以放大或减轻算法偏见和不透明度影响的关键因素。重要的是,这些风险并非所有AI工具固有的,可以通过实施过程中的人为干预来降低。教育者的监督、透明的评估政策、针对差异表现的常规审计以及可解释性功能有助于在问题影响学生成果之前识别和纠正不公平现象。因此,本综述将护理教育中的AI视为一个社会技术系统,其中设计选择和实施治理共同决定了AI是促进还是削弱公平性和学习效果。
在护理教育中,评估和反馈对于培养临床判断力和反思性实践至关重要。当AI工具生成分数、反馈或模拟患者反应时,透明度有助于学生从理由中学习,并支持教育者进行公平评估的责任感。这些关注点与护理教育中关于临床判断力培养和专业能力发展的基础相一致。
设计与目的
本研究旨在综合关于护理教育中使用的AI工具的算法偏见和透明度的现有文献。选择范围综述方法来梳理来自不同来源(包括实证研究、技术报告和政策文件)的研究广度和深度。范围综述适用于探索新兴主题,尤其是在定义、框架和证据基础仍在发展中的情况(Munn等人,2018年;Pham等人,2014年)。本综述的重点是……
文献描述性概述
在主要的健康、技术和教育数据库中共识别出35篇相关文章。本部分概述了出版趋势、关键词模式和主题覆盖范围,以明确该领域的范围和发展历程。表1提供了所审查文章的结构化目录,包括作者/年份、研究目的、主题焦点以及讨论的伦理或算法问题。该表格为后续的主题综合提供了基础。
讨论
本综述的结果表明,需要更深入地探讨AI工具在护理教育中的设计、实施和评估方式。算法偏见和透明度缺乏不应被视为次要的技术问题,而应被视为影响教育公平性、信任和学习成果的核心问题(Zdrok,2024年)。这些问题反映了关于AI系统中嵌入了谁的知识、价值观和经验,以及这些因素如何影响教育过程的更深层次问题。
结论
随着AI工具继续塑造护理教育的未来,必须认识到并解决它们所带来的伦理挑战。本综述强调,算法偏见和透明度缺乏并非孤立的技术缺陷,而是可能影响学生学习、公平性和信任的系统性问题。确保AI支持护理教育的价值观需要教育者、机构和开发者的积极行动。伦理整合依赖于……
CRediT作者贡献声明
Mohammad Ishtiaque Rahman:撰写——综述与编辑、原始草稿撰写、可视化处理、数据验证、资源收集、项目管理、方法论设计、调查实施、数据分析、概念化构建。
伦理批准
本文献综述未涉及任何新的涉及人类参与者或动物的研究。所有分析的数据均来自公开来源,且综述的进行符合已发布的研究的伦理指南。
资金支持
作者未获得本文研究、作者身份认定和/或发表的任何财务支持。
利益冲突声明
作者声明没有已知的可能影响本文工作的利益冲突或个人关系。