先锋视界2025年08月28日 07:32消息,上海三甲医院医生解析如何有效利用大模型辅助日常看病,提升就医效率与准确性。
在回答“大模型能否用于看病”这一问题前,申城好网民专家、复旦大学附属华山医院普外科副教授周易明分享了一个真实案例:一位患者患有胃部溃疡并伴有巨大穿孔,根据临床诊疗指南应进行全胃切除手术。通用大模型也建议进行全胃切除,但随后却提出一个令人哭笑不得的建议:“术后使用质子泵抑制剂(一种抑制胃酸的药物)预防应激性溃疡”——既然胃已经被全部切除,又何谈抑制胃酸?
当前,患者使用AI大模型就医的话题持续升温。周易明与AI创业团队共同研发的医学AI引擎“KnowS”作为国内首个面向临床医生的专业AI医学知识引擎,近日已完成成果转化并成功落地,正在为全国31个省市的医护人员提供诊疗支持。作为一名拥有十余年从业经验、同时熟悉大模型架构和原理的医生,他明确指出,公众在面对AI提供的医疗建议时应保持谨慎态度,不应轻易相信,并给出了详尽的理由。 在我看来,尽管AI技术在医疗领域的应用展现出巨大潜力,但其在临床决策中的辅助作用仍需理性看待。AI模型的数据来源、训练方式以及算法逻辑都可能影响其判断准确性,尤其在复杂或罕见病例中,AI的局限性更为明显。因此,医生的专业判断仍是不可替代的核心力量。公众在使用AI工具时,应将其视为参考而非依据,最终的医疗决策仍需由专业医生综合判断。
AI幻觉、数据更新不及时都可能误导
最大的问题在于,许多大型模型会出现“AI幻觉”现象。这些模型生成的结论表面上看起来有理有据,但实际上并不合理。医疗行业对错误的容忍度极低,哪怕是一个微小的失误,也可能带来无法挽回的后果。因此,“AI幻觉”非常危险,但普通用户却难以察觉。周易明表示。
医生在使用通用大模型时发现,该模型在理解医学逻辑方面存在不足,所给出的建议表面上看起来专业,但实际上模糊不清,缺乏准确性。例如,在处理一个复杂的直肠癌病例时,患者的直肠系膜淋巴结为阴性,但右侧侧方淋巴结疑似转移,大小为8毫米。医生需要判断患者是应该先手术还是先进行放化疗。此时,通用大模型回复称“需结合影像学特征,进一步明确淋巴结性质后再做决定”。然而,根据最新的专家共识,只要淋巴结短径超过7毫米即可临床判断为转移。这说明,虽然大模型引用了正确的文献,建议方向也正确,但却未能真正理解“如何判断侧方淋巴结是否转移”的医学逻辑,导致回答不够准确。
周易明还指出,公众日常使用的一般是通用大模型,而非专门针对医学领域的模型,常常存在数据更新不及时的问题,导致大模型提供的诊疗建议未能符合最新的临床诊疗指南,从而引发错误的医疗判断。
比如,结直肠癌患者术后服用阿司匹林是临床诊疗指南中的建议,但不同群体、不同病情有不一样的用药建议,而且2025年最新版的医生采用版临床指南对用药建议行了大幅度更新。可是,当医生测试不同通用大模型时,发现大部分都没有及时更新,极易误导患者和医生——事实上,这也是华山医院医生和AI创业团队联合研发“KnowS”的重要原因,通过实时更新和锁定数据库,确保“KnowS”收录和提供的内容是最新且准确的医疗研究成果,更好地帮助医护人员查找临床治疗资料。
具备医学知识,但是缺乏医学思维
也有患者提出疑问,如果普通人使用专业的医用大模型,是否就能获得准确的诊疗建议呢?对此答案仍存疑。
周易明说,“如何提问”对大模型来说至关重要。大模型拥有庞大的知识库,从某种意义上说,它确实掌握了丰富的医疗信息。然而,许多通用大模型并不能像医生那样进行专业思考,普通患者也往往不清楚如何从这些信息中提取出最符合自己情况的建议。医生在正式上岗前,都会接受严格的培训,这种培训不仅包括知识的积累,更涉及思维方式的塑造。因此,医生问诊本身也是一门专业的技能,需要精准提问、过滤无关信息,并结合患者的个体情况与医学知识,制定出科学合理的诊疗方案。
对普通患者来说,询问大模型时,往往事无巨细都会问,却不知道哪些需要重点关注,哪些是干扰信息。患者问得越多,大模型的回答也越多,最终导致信息繁杂,患者反而无所适从。
“其实,不仅患者可能问错重点,医生也会问错方向。这也是专业医用大模型正在努力解决的问题。”周易明说,“KnowS”也在不断优化,以便提高大模型的“诊疗思维”能力:一方面采用树状思维,确保考虑问题周全无遗漏;另一方面运用链式思维,将诊疗环节拆解,力求每个环节的回答都更明确、更简洁。
此外,通用大模型的多模态处理能力也较为有限。简单来说,它能提供文字建议,却无法 “读懂” 图片类信息。就诊时,患者自述、图文检查报告等都是重要的基础信息,但大模型无法同时处理这些多元内容,难以完整掌握患者情况,自然无法给出准确的诊疗建议。
普通人看病可以这样用大模型
“请患者不要轻信大模型,并非全盘否定它的价值。”周易明强调,“公众完全可以借助通用大模型,填补自身与医生之间的医学知识差距,进而提升医患沟通的效率。简单说,就是能‘更听懂医生在讲什么’,避免因专业术语隔阂导致的沟通不畅。”
他进一步解释,人工智能大模型背后遵循的正是DIKW逻辑:从收集零散的原始数据(Data),到加工解读为有意义的信息(Information),再整合归纳为可用于行动指导的知识(Knowledge),最终朝着能进行决策和创造的智慧(Wisdom)层层递进。用做饭来类比,买菜就是数据采集,洗切是加工信息,菜谱是知识储备,而真正能做出一桌美味的饭,则体现了智慧。这套逻辑也是大模型处理信息、生成内容的核心框架。当前通用大模型的优势,尤其体现在医疗数据的收集与信息整理上。对公众而言,不仅可以借助它快速掌握基础医学知识,比如提前了解自身症状相关的疾病常识,避免就诊时“一问三不知”;还能帮助理清求医思路,使问诊更加有的放矢。 在我看来,这种技术应用不仅提升了个体获取信息的效率,也推动了医疗资源的合理利用。随着AI在医疗领域的深入,其价值将不仅仅停留在信息层面,未来有望在辅助诊断、个性化治疗等方面发挥更大作用。但与此同时,也需警惕技术依赖带来的风险,确保其始终服务于人的健康需求。
“进一步说,在病程较长、病情较为复杂的情况下,若患者或家属具备一定的AI使用经验和医学常识,可以借助大模型作为“就诊小秘书”,对已有的诊疗资料进行梳理、提炼和总结。周易明表示,这样在向医生陈述病情时,能够更加条理清晰,减少不必要的重复信息,帮助医生更快抓住关键点。但他也强调,这并非对患者的硬性要求,更不是让患者仅凭大模型的结论就医。而是建议在条件允许时,将大模型整理的信息与原始检查报告、病历一并提供给医生——前者有助于医生快速掌握重点,后者则确保信息的真实性和准确性,从而提升诊疗效率和精准度。 **观点看法:** 随着人工智能技术的不断发展,其在医疗领域的应用正逐步深入。将大模型作为辅助工具,帮助患者更好地整理和呈现病情信息,是一种有益的尝试。它不仅能够提升医患沟通的效率,也能在一定程度上减轻医生的工作负担。然而,这种技术的应用仍需建立在患者具备一定知识基础的前提下,不能成为替代专业医疗判断的工具。未来,如何在技术赋能与医疗专业性之间找到平衡,将是值得持续关注的方向。