锚定技术、数据、伦理三轮驱动,近年来犹如雨后春笋般涌现的医疗大模型,表明医疗领域正成为人工智能最具应用潜力的商业蓝海之一。受访业内人士表示,由于模型生成内容的准确性直接关系患者生命安全,推动医疗大模型落地应用,仍需增强决策透明度和可解释性,打破数据整合与质量瓶颈,以确保诊断建议的可靠性。同时,在隐私保护与伦理规范等方面也需要做更多工作。
从“可用”迈向“可靠”
逐步解决“幻觉”难题
“医疗大模型应用空间广泛,其落地方向包括:做医生的成长工具,通过医疗大模型的使用降低医生的培训成本;做患者的管理工具,借助医疗大模型打造直接面向消费者的AI健康智能体;释放医生时间和精力,让医生更多参与到审核环节,而非全流程操作。”京东健康探索研究院首席科学家王国鑫说。
医疗大模型的“可用”与“幻觉”问题的逐步解决密切相关。在技术层面,传统AI大模型由于数据噪声和知识盲区容易产生“幻觉”,一旦模型在生成内容时出现偏差,医疗场景中的错误推断将导致严重后果。
对此,技术人员正在通过多种方式消除大模型“幻觉”:一是设立“安全围栏”,限制模型处理超出能力范围的问题;二是广泛使用外部工具,以实时内容为核心,补充人工智能对当前情境的理解;三是从模型底层能力入手,例如在推理过程中不断自我验证,从不同的角度交叉验证自己的结论。
“前两种方式是抑制幻觉,后一种是实现推理过程白盒化,即便有错误也可以被人识别。”王国鑫向记者介绍,目前,这三种方式相互配合,可在一定程度上抑制“幻觉”问题。
以国家儿童医学中心、复旦大学附属儿科医院推出的全新升级版DS-小布医生2.0系统为例,复旦大学附属儿科医院副院长张晓波介绍,在抑制大模型“幻觉”方面,依托自建的“儿科增强检索知识库”,能够精准匹配权威医学知识,提升诊疗推理能力。
如何进一步提高医疗大模型在复杂临床环境中的安全性和可信度?北京大学信息科学技术学院研究员杨仝建议,可从模型内外组合防御。
“通过对抗训练提高模型鲁棒性、利用数据预处理削弱对抗攻击效果、引入公平性约束减少算法偏差等方式,提升模型自身安全性。同时,在模型与用户间部署独立的安全互联系统,实时检测并拦截异常输入数据,过滤敏感或恶意请求,并对模型输出进行审核和纠错。”杨仝说。
DeepSeek助力
高质量数据成关键支撑
降低技术门槛、优化模型部署效率……作为国产开源大模型,DeepSeek为医疗大模型落地提供了重要突破口:医院可采用“大模型基座+小样本微调+专业知识融合”的方式,直接基于DeepSeek进行微调。
“这并非传统意义上从零训练,而是仅需较小数据和计算资源就能快速开发适用于自身场景的AI应用。”张晓波介绍。但她也认识到,想要训练出高质量医疗大模型,仍需综合运用大规模高质量数据资源。
为提高对复杂病例的精准识别和推理能力,DS-小布医生2.0系统依托医院大数据管控平台,整合电子病历、实验室检查、医学影像、基因组学数据、可穿戴设备监测等多模态数据,实现标准化存储、统一管理与高效调用。通过数据治理技术,如数据清洗、语义解析和智能标注等,确保数据的准确性、时效性和一致性,并结合专家审校,精准提取临床关键信息。
作为同样致力于将AI技术应用于三甲医院的科技企业,麒麟合盛网络技术股份有限公司董事长兼首席执行官李涛表示,DeepSeek是通用模型,要使其具备医疗能力,必须利用大量专业知识进行增量训练,特别是结合医院自身病例、知识库,如特定医院的罕见病病例数据、特定地区的特殊病例数据等,进一步优化与微调模型,使其能够更好地适应特定场景需求。
受访业内人士表示,医疗大模型最需要的真实医疗数据是临床专家的应用数据以及临床医生的培训数据,这部分数据往往是以多模态的形式存放在不同的医疗机构。
“先进的数据蒸馏技术能大幅提升模型表现。”杨仝建议,统一数据格式,提高数据互操作性,并请医学专家深度参与数据蒸馏过程。
“专家团队要准确记录患者的症状、体征、诊断过程、治疗方案以及治疗效果等信息,并对其中的关键信息进行标注和解读,通过人机协同优化模型诊断能力。”李涛表示,可通过开展医学研究项目,邀请专家共同参与,收集更多有价值的医疗数据。
完善治理体系
筑牢安全与伦理防线
在将大模型应用于医疗的过程中,伦理风险始终受到业界重点关注。中国工程院院士、清华大学临床医学院(北京清华长庚医院)院长董家鸿分析,大模型本质上是一种统计模型,难免会产生事实错误、逻辑错误等,模型的“黑箱”特性使医疗决策逻辑难以被理解,增加了伦理审查的难度。
受访业内人士表示,医疗大模型伦理风险治理的复杂性源于其需要同时考虑医学伦理与科技伦理两个维度,所处视角不同,且均涉及复杂而广泛的问题,并存在彼此交叉,亟待“多维”规范。
第一,在医疗等需要透明度的领域,大模型需提高解释性,帮助用户理解决策过程和建立信任,并通过使用多样化的数据集和开发新算法,确保模型在不同人群中的公平表现,消除潜在的偏见与歧视。
杨仝表示,最新的大模型具备强大的思维链能力,可将诊断推理过程逐步细化并清晰呈现。借助这一能力,可要求模型输出详细且结构化的推理步骤,解释每个诊断或建议背后的逻辑依据。同时,基于细化后的思维链,模型可与医生、患者展开多轮互动式沟通,进一步解释诊断逻辑与决策理由。
第二,应构建贯穿技术全生命周期的伦理治理闭环,以“科技向善”为原则打造智慧医疗新范式。
“在搭建DS-小布医生2.0系统中,我们将伦理治理深度嵌入技术创新链条的实践范式,构建了医疗AI临床应用的知信行量表,通过对332名医务工作者的抽样调研,系统梳理伦理治理议题。在实际运行中构建接受度和满意度的双向反馈通道,使系统迭代与患者信任间形成正向循环。”张晓波说。
第三,医疗数据大多涉及患者隐私,大模型未来的发展趋势必将强化数据隐私保护措施。
“应提升医疗人员对数据合规性和隐私保护的意识,确保在AI应用过程中遵循伦理标准。”董家鸿建议,利用数据加密、匿名处理和差分隐私技术,防止未授权访问和数据泄露,并采用区块链、隐私计算等新兴技术,增强数据治理的透明性和可追溯性。
下一篇:人工智能教育指南深意何在