### 青少年心理健康护理的困境
青少年心理健康问题愈发严峻,焦虑、抑郁和自我伤害行为等的患病率显著上升,超五分之一的青少年受精神疾病困扰。这些疾病与诸多不良社会、经济和健康后果紧密相连,如影响学业、就业和社交关系,增加成年后患慢性疾病的风险 。
传统心理健康护理面临诸多阻碍。专业临床医生短缺,且传统治疗方式,像多疗程的诊所式治疗,耗时久、成本高,难以满足大量青少年的需求。同时,定时、面对面的预约模式与青少年对即时、匿名护理的偏好相悖,致使半数以上患精神疾病的青少年无法获得恰当治疗。
AI:青少年心理健康护理的新希望
人工智能(AI)发展迅猛,其在各领域展现出强大的能力,能处理复杂任务,甚至超越人类。在青少年心理健康护理方面,AI 潜力巨大,有望革新现有治疗模式。尽管部分美国临床医生已将 AI 用于行政工作,但多数人对其在服务提供方面的广泛应用仍缺乏了解。
AI 工具在青少年心理健康护理中的多样应用
- 检测与诊断:可穿戴设备、移动应用和网络服务能收集青少年的睡眠模式、活动水平和数字习惯等多模态数据。预测性 AI 通过分析这些数据,能在症状出现前识别心理健康问题的早期迹象。例如,GoGuardian Beacon 可监测学校设备的互联网活动,发现学生的异常行为时,及时向相关人员发出警报,已帮助预防了大量美国学生的身体伤害。
对话代理是模拟人类对话的 AI 程序,专门用于心理健康护理的代理,如 Limbic Access,能通过互动式文本对话收集患者信息、进行风险筛查并引导患者选择合适的护理路径,有效减轻了工作人员的负担,患者反馈良好。
2. 信息、支持与治疗:一些对话代理应用,如 Wysa 和 Woebot,为青少年提供按需的文本治疗互动,包括 AI 引导的日记记录、正念练习和实时文本治疗。部分试验显示,这些应用能提高患者满意度和留存率,改善焦虑、抑郁等症状。不过,目前多数对话代理基于规则系统,互动缺乏灵活性和个性化。未来,生成式 AI 将用于增强用户参与度,还会融入语音驱动体验和 AI 视频化身,打造更沉浸式的心理健康支持系统。
AI 还能根据青少年的基因组、生理、心理和社会因素,为其量身定制治疗方案。通过分析这些复杂数据,AI 可预测哪种治疗方法可能最有效,减少试错过程。例如,AI 模型能帮助医生判断患有注意力缺陷多动障碍(ADHD)的青少年对兴奋剂药物的反应,以及焦虑症患者对认知行为疗法(CBT)或其他干预措施的适用性,但该领域仍处于研究初期。
3. 临床医生培训:临床医生可借助对话代理模拟与青少年的互动,提升自身技能。SimFlow.ai 开发的多种 AI 驱动代理,能模拟不同青少年的临床案例,让医生在安全环境中锻炼诊断、沟通和决策能力。这些模拟还提供反馈,助力医生改进,但模拟的准确性、逼真度和实际适用性仍需进一步研究。
4. 推进和加速研究:AI 驱动的工具能优化研究流程,降低成本并提高效率。在定量研究中,机器学习用于分析大规模数据集;在定性研究中,AI 工具可转录音频视频、提取文本信息并生成总结;在系统评价和综合研究中,专门的 AI 工具能自动化关键流程,使实时更新的动态综述成为可能。
引入 AI 面临的挑战与障碍
- 监管问题:AI 在心理健康护理中的分类和监管不明确。健康促进工具和临床诊断治疗工具界限模糊,多数声称有助于青少年心理健康的工具未经严格审查。即便被归类为临床产品,AI 工具的监管也存在漏洞,缺乏严格的上市前评估和持续监测,相关监管框架仍在完善中。
- 安全风险:所有 AI 工具都有出错的可能。面向青少年的 AI 工具风险更大,青少年易冲动、受社会影响,难以判断 AI 输出内容的可靠性。如 2024 年,14 岁少年与对话代理互动时,该代理未正确应对其自杀倾向,最终导致悲剧发生。
- 公平性与偏见:AI 工具的性能受训练数据影响,青少年相关高质量数据稀缺,这增加了模型产生偏见的风险。弱势群体,如少数族裔、LGBTQ + 群体和罕见病青少年,更易受到影响,可能导致误诊和不当治疗。同时,数字鸿沟使得边缘化群体难以接触到 AI 工具,加剧了健康不平等。
- 技术依赖:青少年过度使用数字设备会带来肥胖、睡眠障碍等健康问题,广泛使用面向青少年的 AI 工具可能加剧这些问题,还可能导致新的心理问题,如对手机的依赖(无手机恐惧症)和游戏成瘾。此外,临床医生过度依赖 AI 工具,会削弱临床判断力和职业自主性,转移责任认知。
- 年龄相关问题:AI 驱动的心理健康工具常按年龄简单划分用户,忽视了青少年心理发展的个体差异。相同年龄的青少年在认知、情感和社会成熟度上可能差异很大,以发育阶段而非年龄来决定使用心理健康工具可能更合理。
安全有效整合 AI 的实用框架
- 遵循标准使用:AI 技术应像其他专业医疗设备一样,符合法律、伦理和专业标准。面向 18 岁以下人群的 AI 工具需额外保障措施,如 Wysa for Children and Young People 在英国医疗健康产品监管机构(MHRA)注册,并得到英国国家医疗服务体系(NHS)认可。
- 明确适用范围:AI 工具都有特定的临床应用范围,超范围使用可能导致错误建议和伤害。例如,Woebot 的成人模型不能用于治疗 18 岁以下儿童。
- 辅助而非替代传统护理:AI 工具并非完美,只能作为临床护理的辅助手段。像 Limbic Access 收集的评估数据,需经临床医生验证。
- 关注适用人群:部分青少年群体不适合使用某些 AI 工具,尤其是患有严重、复杂或罕见疾病的青少年,以及少数族裔和数字素养低的青少年。例如,GoGuardian Beacon 在检测某些少数群体的自我伤害迹象时可能不准确。
- 匹配专业能力:临床医生需具备相应技术和临床能力才能使用 AI 工具,使用前应接受培训,了解工具的能力、风险及应对策略。技术能力有限的医生在整合 AI 服务前,应先接受培训。
展望未来
AI 无疑是青少年心理健康护理的未来发展方向。它能扩大护理服务的覆盖范围,实现早期干预,优化临床工作流程。然而,要充分发挥 AI 的潜力,必须加强监管,确保其负责任地应用,促进公平护理。只有这样,AI 才能为青少年心理健康护理带来真正的变革,让心理健康支持变得更易获取、更高效,为青少年的心理健康保驾护航 。