引言
数字健康技术与人工智能(AI)正在变革医学研究、医疗保健和公共卫生。随着算法在医疗领域的应用日益广泛,各国政府、监管机构、卫生组织、开发者和提供商都面临着新的挑战。AI引发的伦理问题超越了传统国界和医疗监管流程的范畴。在此背景下,世界医学协会(WMA)制定并倡导的《赫尔辛基宣言》(DoH)作为一项指导全球健康与医学研究伦理行为的活的原则声明,其核心原则——包括患者尊严、知情同意、隐私和保密等权利——为评估AI健康政策的伦理契合度提供了重要的规范性参考点。
《赫尔辛基宣言》2024年修订与人工智能
2024年DoH的修订明确回应了AI技术带来的新挑战。修订内容涉及多个关键领域:新第32条要求对生物材料和可识别数据的收集、处理、存储及可预见的二次使用必须获得自由、知情同意,且数据库/生物样本库需经研究伦理委员会(REC)批准和监控。修订后的REC条款(第23条)强调了委员会的独立性、资源、地方专业知识、公众参与等,这些要求直接适用于AI试验和真实世界性能研究。此外,宣言第16-18条要求的持续风险-效益管理非常适用于性能可能漂移的自适应/学习AI算法。其他修订还包括前瞻性公开注册、全面报告结果、现代化知情同意流程、重新界定脆弱性以减轻AI偏见,以及将维护原则的责任主体从医生扩展到所有参与AI多学科团队的个人和组织。
医疗保健与商业健康领域的适用性
本文区分了(i) 针对健康领域的特定制度(如健康隐私法、针对软件/AI的医疗器械监管)和(ii) 基于功能和风险适用于健康用途的通用AI框架。在美国,《健康保险携带和责任法案》(HIPAA)仅适用于“被覆盖实体”及其商业伙伴,许多处理健康相关信息的商业实体(如某些消费者健康应用、可穿戴设备平台)即使处理临床敏感数据也不在HIPAA覆盖范围内,其义务主要源于通用的消费者保护和隐私法律。相比之下,医疗器械规则(如用于诊断、治疗、缓解或预防的软件/AI)是基于预期用途,无论其HIPAA状态如何。在欧盟等其他司法管辖区,通用数据保护法和部门性的器械规则与横向的AI法案或指南相互作用。
共识领域
跨AI治理结构可识别出一些共同模式。在功能上,AI治理主要涉及三种操作:约束(限制AI的开发和使用)、赋能(允许或促进AI的研发和使用)以及平衡(包括透明度和披露义务)。在目标上,则侧重于保护既定权利(如隐私、反歧视)、保护既定利益(支持经济增长、刺激技术发展)以及推动创新。此外,三个核心原则正在浮现:学习性(要求治理机构保持法规灵活性以适应演变)、互操作性(允许不同系统和数据结构在无需完全统一的情况下进行通信)以及能力建设(将法律要求转化为政策、最佳实践和技术标准)。
各司法管辖区AI政策与执行分析
- •
联合国:2024年联合国大会通过了美国主导的AI决议,鼓励成员国推动安全、可靠、可信赖的AI发展,但其法律约束力较弱,更侧重于象征意义和能力建设,实际执行仍由各成员国自主负责。
- •
美国:AI监管呈现多层、分散的特点。特朗普政府上台后调整了联邦AI政策,强调创新。监管执行涉及食品药品监督管理局(FDA)对AI医疗器械的监管、卫生与公众服务部(HHS)下属机构如国家协调员办公室(ONC)对健康IT认证的透明度要求、民权办公室(OCR)对反歧视条款的执行以及联邦贸易委员会(FTC)对消费者保护和数据安全的执法。
- •
英国:政府发布白皮书,倡导支持创新的方法,采用基于风险的适度监管原则。执行层面结合了药品和保健产品监管署(MHRA)对AI医疗器械的监管、信息专员办公室(ICO)的数据保护执法以及国家医疗服务体系(NHS)的采购合同影响。
- •
欧盟:通过了具有里程碑意义的《欧盟人工智能法案》(EU Act),这是全球首个试图全面规制AI的法律框架。该法案采用基于风险的方法,对高风险AI系统提出严格要求和保障措施。执行由各成员国的国家主管当局和数据保护机构负责,具有强大的执法能力和高额罚款。
- •
印度:政策正在演变中,侧重于利用AI改善医疗可及性和质量。目前主要通过调整现有法规(如医疗器械规则、数据保护法)和制定伦理指南来进行治理,强制执行机制仍在发展。
- •
中国:政府发布了《新一代人工智能发展规划》,旨在到2030年使中国成为世界AI创新领先者。监管强调国家安全、数据保护和算法透明度。执行由多个机构(如国家药品监督管理局NMPA、国家网信办CAC等)负责,日益强调更清晰的法规和更严厉的处罚。
- •
加拿大:官方政策以加拿大卫生部根据《食品和药品法》和《医疗器械条例》对AI/机器学习医疗器械(MLMD)的监管为基础。引入了预定变更控制计划(PCCP)以管理AI模型的迭代更新。执行主要通过现有的医疗器械合规与强制执行框架进行。
- •
日本:政策结合支持创新与患者安全。厚生劳动省(MHLW)和药品医疗器械综合机构(PMDA)根据《药品医疗器械法》对AI SaMD进行监管,并引入了批准后变更管理协议(PACMP)来管理学习型系统的生命周期变更。执行依托于现有的医疗器械和数据治理框架。
分歧的利益与尚未决定的共同目标
各国在AI治理哲学和优先事项上存在显著差异,这反映在多样化的政策中。美国缺乏统一的中央政策框架,而欧盟则采取了全面的立法。尽管存在分歧,2024年DoH的修订代表了在快速发展的AI时代对伦理准则的有意义更新。然而,即使在DoH修订后,对于如何应对数据隐私、算法偏见以及AI在临床决策中的作用以促进公平等新兴伦理困境,仍缺乏详细指导。
DoH对AI治理的隐含要求
AI伦理原则应贯穿AI健康技术生命周期的始终,核心包括:不伤害(非恶意)、促进福祉(善意)并权衡风险效益、确保公平(正义)、尊重个人自主决策权(自主性)以及保护隐私。这些原则与具有法律约束力的人权框架紧密相连,为所有利益相关者提供了行动指南。同时,非健康领域的商业实体进入医疗保健领域(一种“领域越界”),可能将商业优先置于患者权利之上,从而挑战信任、问责和透明度。
结论
2024年DoH修订工作组认识到,在AI和遗传数据收集的背景下,对于临床研究试验后存储个人数据的使用风险及相关同意要求和参与者保护方面缺乏充分考虑。当今实施DoH需要一个动态、自适应的国际治理框架,并由一个监管机构监督,该机构将负责制定全球AI政策,并随着AI技术的迅猛发展而同步推进其监管。鉴于HIPAA的覆盖范围有限,本文的建议将部门性的健康规则与通用的AI和数据保护保障措施相结合,以避免监管空白。最终,需要一个能够协调不同利益、确保AI技术以符合伦理且有效的方式造福全球健康的国际协作框架。