AI问诊靠谱吗?
分类:6版 时政观察 来源: 作者: 发布时间:2026-02-11
A+ | a
王昱涵 绘
如今,AI医疗问诊广告铺天盖地,从电视节目、手机软件到公交车站、商务楼电梯,随处可见。
被魔性广告词洗脑的刘玉今年30岁,患有大大小小五六种慢性病,每个月都得跑两三次大型三甲医院,一次就得耗费四五个小时的时间。抱着试一试的心态,她下载广告中的AI问诊软件,尝试让AI医生为自己看病。
AI问诊的界面简洁明了、操作直观。不到1分钟,AI就反馈了初步判断,并附上用药建议。
短短几分钟,刘玉就完成了以往需要数小时才能走完的问诊、开药、购药全流程。她既惊叹于这种高效,又担忧AI是否靠谱。
2025年起,随着国产大模型技术实现显著突破,多家企业纷纷推出医疗智能体产品,如医联的“未来医生”、京东健康的“AI医生大为”、蚂蚁集团的“阿福”等。
AI问诊是否可信?它会胡说八道吗?能在多大程度上替代真人医生?用户的医疗数据又如何得到保护?这些问题成关注焦点。
AI为啥能看病
“事实上,从搜索引擎时代开始,医生对专业知识的垄断就已经结束。”北京大学医学人文学院教授王岳认为,AI问诊的出现并不突然,它更像是搜索引擎的进阶版,能够为患者提供量身定制的回答。
相比于DeepSeek等通用大模型,医疗类AI产品需要更专业、更可靠的决策支持。据京东健康探索研究院专家刘慧介绍,AI之所以能像医生一样看病,关键在于医学知识的投喂和真人医生的辅导。
AI医生出师前需要经历两大阶段的训练。首先是上学,就像医生在学校上课一样。通过输入大量公开的医学资料,让AI掌握基本的医学知识和诊断方法。
接着是实习,类似于医生在医院规培。使用数万条真实医患问诊样例,让AI学习标准问诊流程,锻炼AI的推理能力。最后在模拟环境中与虚拟病人交互,通过真实医生反馈提高准确性。
当前市场上各公司的AI问诊产品,主要可以分为“给普通病人用的”和“给医生用的”两大板块。
对于“给普通病人用的”的产品,用户只需在产品界面按照AI引导,一步步输入症状、患处照片,AI便能给出咨询建议。
第二类则是医生助手。医生在诊断或科研中遇到问题时,AI医生助手产品能够查询相关指南、论文,并基于这些专业资料回答医生问题;在医生线上诊疗流程中,还可以自动生成病历摘要、推荐检查项目或预警药物相互作用等。
“AI问诊的优势就是‘方便’。”王岳表示,由于国内目前尚未建立完善的分级诊疗制度,民众生病后不愿找基层全科医生,而是直接涌向三甲医院,导致三甲医院人满为患,就医体验不佳,因此,AI问诊成为一种自然选择。王岳认为,除了方便病人,AI还可减轻医生工作强度,从而让医生处理更复杂问题。
北京市海淀医院院长张福春认为,对于诊疗水平不足的年轻医生和基层医院而言,如果能借助AI习得优秀医生的经验和能力,是一个难得的“弯道超车”的机会。
AI误诊由谁负责
不少人都曾遇到过AI看似专业却给出错误信息的情况,如果出现误诊,责任该由谁承担?
刘慧认为,首先需要明确一个基本认知:AI的目标是模拟真人医生的远程问诊,而不是取代线下问诊。“网络问诊永远无法替代物理检查,即便对面是真人医生,远程问诊也存在这样的局限性。”
目前AI问诊更适用于看影像片子、体检报告,处理一些轻微症状或突发状况,也可用于慢性病管理、分诊建议等。
针对大模型与生俱来的幻觉,刘慧解释说,这是大模型这种生成式技术本身的特点造成的,在医疗领域,这是致命伤。为解决这个问题,最直接的办法是使用专门为医疗领域研发的AI模型,且在知识检索增强(RAG)阶段仅采用医疗循证知识库,而非检索网络公开资源,这样能确保它的判断都是基于真实的医学文献和病例记录。
刘慧还提到,医疗AI得出的每一个参考建议都要有明确的证据支持,可以追溯来源,这样才能验证这个结论是对是错。
不过,另一个挑战是患者常常表达不清,可能会漏掉一些关键信息,这导致AI在初期可能会理解错误。刘慧介绍,现在的AI已经能更好地理解言外之意,或对用户表达模糊的话进行主动澄清。
例如,用户说“老人经常呕吐白痰”,大模型会主动问询是呕吐行为,还是咳痰行为,并解释两种行为的特点和区别。
在准确性评估上,刘慧表示,目前京东健康AI辅助诊断的top5准确率(即给出的五个诊断建议中包含正确答案的概率)达97%,第一个建议正确率约80%。测试使用了数万条历史病例数据,并以线下医生的诊断结果作为标准答案。
目前,关于如果AI误诊该由谁负责的问题,还没有专门的法律规定。北京航空航天大学法学副教授赵精武指出,AI问诊并不能独立完成诊断或治疗,它更像是一个医疗小助手,最终的诊断结果还是由医生决定,因此医疗事故的责任仍然由医生或相关医疗机构承担。
赵精武进一步解释,AI问诊结果不准确是技术发展过程中的客观现象,法律上不可能要求开发方为技术无法实现的目标负责。但如果开发方或服务商在宣传中夸大AI的准确性,导致患者相信错误结果而受到伤害,那么他们可能需要承担产品责任。
现在,市面上的AI问诊软件几乎都会标注类似“建议仅供参考,如有健康问题请及时就医”的提示。刘慧介绍,现在业内对“AI+医疗”的共识仍是“辅助诊疗”。
“就怕医生像AI”
“如果AI足够可靠,未来愿意接受它的人肯定会越来越多。”刘慧说,长远目标是让AI成为用户的全周期健康助手,从疾病预防、诊断辅助到康复都能提供优质服务,从而缓解医疗资源分布不均问题。
但要训练出可靠的AI模型,离不开高质量的医疗数据。然而,多位业内人士指出,目前国内医疗数据共享不足,且缺乏统一标准,制约了AI医疗产业的发展。
实际上,中国并不缺少医疗数据。国家卫健委发布的卫生年鉴显示,2024年全国卫生机构总诊疗人次高达101.5亿,由此产生的医疗数据预计超过百亿条。
但问题在于,各家医院的数据标准不统一,质量参差不齐,不少数据还存在错误、遗漏或不完整的情况。此外,大量数据以文本、影像等非结构化形式存储,管理和整合起来相当困难。
目前,京东健康的医疗数据主要来自京东互联网医院、有课题合作的大型公立医院和区域数据中心。刘慧建议,在加强隐私保护的基础上,应提升数据的一致性和质量,实现不同医院间患者病历的互联互通,支持AI模型的持续学习。
2025年12月,北京市卫健委发布文件,明确将汇总医疗数据、制定高质量数据标准,并对这些数据合理估值后逐步向社会开放。上海和浙江也有类似政策出台。
监管上,王岳建议采用社会共治模式,让政府、行业协会和企业共同参与。应当对AI运营商实行“无过错责任原则”,即一旦发生损害就需负责,除非能证明无过错,并通过保险来分散风险。
刘慧则强调需要明确各方责任,比如研发方负责算法安全和数据合规,监管方监督执法和制定标准,用户也应理性看待AI建议。她提议借鉴自动驾驶的分级制度,为医疗AI制定规范。例如,L1级别可用于信息辅助,L2级别可提供提示建议,而更高级别需谨慎应用。
去年,王岳因为喉咙不舒服咨询AI,结果AI说可能是肿瘤。不久他挂了线下专家号,医生只用压舌板看了看就判断是普通咽炎。
王岳认为,这正是AI最大的局限性——忽略每个人的差异,但更让他担心的是,现在一些医生过度依赖检查报告和影像片子,像流水线上的产业工人一样看病,而不重视临床经验和技能,这种机械性的工作AI完全可以取代。不怕AI像医生,就怕医生像AI。
据2月10日央视网
标签:
最新更新
- 新疆出台肉羊产业高质量发展行动方案
- 新疆发布2026年清明节文明祭扫倡议书
- 新疆多地推行春假 打造“行走的成长课堂”
- 自治区党委理论学习中心组专题学习会暨省级领导读书班举行
- 自治区政府召开专题学习会议
看新疆新闻,关注法制报微信
版权和免责申明
新疆法制报网制作的专题内容,所注“中国西部网讯”均为新疆法制报网独家版权所有,未经许可不得转载或镜像;授权转载必须注明来源为“新疆法制报网”并保留“新疆法制报网讯”电头。




