基于 BE‑FAIR 公平框架优化人群健康预测模型:消除偏差,促进健康公平

时间:2025年3月17日
来源:Journal of General Internal Medicine

编辑推荐:

在医疗领域,预测模型的偏差会加剧健康不平等。研究人员开展了 “Developing and Applying the BE‑FAIR Equity Framework to a Population Health Predictive Model” 主题研究。结果显示不同种族和社会脆弱性人群模型校准存在差异。BE‑FAIR 框架可减少偏差,对推动公平医疗意义重大。

广告
   X   

医疗科技的飞速发展,让预测模型在人群健康项目中得到了广泛应用,它就像一个 “医疗指南针”,帮助确定哪些患者最需要稀缺的医疗资源。但这个 “指南针” 却存在偏差,可能会加剧不同人群间的健康不平等。在预测模型的开发和应用过程中,从数据的选择、模型的构建到结果的评估,每个环节都可能产生偏差。这些偏差会导致一些患者群体,尤其是少数族裔和弱势群体,被排除在医疗服务之外,使得他们本就面临的健康不公平问题雪上加霜。为了解决这些问题,来自美国加利福尼亚大学戴维斯分校健康中心(UC Davis Health)的研究人员开展了一项重要研究,他们开发并应用了偏差减少与公平评估、实施和重新设计(Bias-reduction and Equity Framework for Assessing, Implementing, and Redesigning,BE-FAIR)医疗预测模型框架,相关研究成果发表在《Journal of General Internal Medicine》上。
该研究采用回顾性队列研究方法。研究人员从加利福尼亚大学戴维斯分校健康中心的电子健康记录和索赔数据中,确定了初级保健或有支付方归属的患者作为研究对象,并根据种族、性别以及由健康场所指数(Healthy Places Index,HPI)定义的社会脆弱性进行分层。研究数据收集时间跨度为 2020 年 9 月 30 日至 2022 年 10 月 1 日。在研究过程中,研究人员运用 BE-FAIR 框架,通过多种关键技术方法对模型进行评估和改进。其中,使用逻辑回归和受试者工作特征曲线下面积(area under the receiver operating characteristic curve,AUROC)来评估模型在不同人群中的校准和区分度,以判断模型的性能差异;对数据按种族、文化和社会经济人口统计学特征进行分解分析,深入了解模型在不同群体中的表现差异 ;利用开源工具实施框架,确保研究方法具有可重复性和推广性。
在研究结果部分,研究人员首先对研究人群进行了描述。研究共纳入 114,311 名个体,平均年龄 43.4 岁,女性占 55.4%,白人 / 高加索人占 59.5%。不同种族和 HPI 水平的人群,住院和急诊就诊的发生率存在差异,如非洲裔美国人、西班牙裔、亚裔美国人和太平洋岛民(Asian American or Pacific Islander,AAPI)、多种族人群的住院预测概率显著低于白人 / 高加索人;HPI 最低四分位数组的个体,其住院和急诊就诊的预测概率显著低于最高组。
在模型校准和区分度方面,研究发现,不同种族和 HPI 水平的模型校准存在差异。对于住院情况,非洲裔美国人和西班牙裔的校准截距和斜率显著高于白人 / 高加索人,意味着他们的预测与实际利用率之间的校准更好;对于急诊就诊,AAPI 和多种族人群在给定预测使用率下的实际使用率显著高于白人 / 高加索人。从区分度指标 AUROC 来看,不同种族和 HPI 水平下的数值有所不同,且敏感性在不同群体间也存在差异。例如,西班牙裔和其他种族群体的急诊就诊 AUROC 最低且低于 0.8,而美国印第安人或阿拉斯加原住民(American Indian or Alaskan Native,AIAN)的最高,但这可能与该群体样本量小有关。
研究结论表明,BE-FAIR 框架为解决医疗预测模型中的偏差问题提供了一种切实可行的方法。它能够指导模型的开发和实施,通过识别和减少偏差,提高医疗服务的公平性,尤其是对少数群体。该框架的应用有助于开发更具代表性的数据集,确定基于预测风险水平的外展阈值,从而改善人群健康外展的公平性。然而,研究也存在一定的局限性,如研究为单中心研究,结果可能无法推广到资源不足或缺乏公平和负责任人工智能领导力的医疗系统;且该框架未涉及生成式人工智能模型。尽管如此,BE-FAIR 框架仍在减少医疗预测模型偏差、促进健康公平方面迈出了重要一步,为未来更广泛的应用和研究奠定了基础,对推动公平有效的人群健康策略发展具有重要意义。

生物通微信公众号
微信
新浪微博


生物通 版权所有