生物通首页 > 今日动态 > 正文
编辑推荐:
本研究针对大型语言模型(LLMs)在医疗应用中面临的安全威胁,系统探讨了恶意指令的提示注入和投毒样本微调两种对抗性攻击方式对疾病预防、诊断和治疗三大任务的影响。通过真实患者数据验证,发现开源与专有LLMs均存在被恶意操纵的风险。研究首次提出通过权重分布差异检测模型攻击,并证实输入复述技术可有效降低攻击成功率。该成果为医疗LLMs的安全部署提供了关键理论依据和实践指导,对推动人工智能在医疗领域的可靠应用具有重要意义。
打赏
生物通 版权所有