2023 年,GPT-4 在美国执业医师资格考试(USMLE)中取得惊人成绩,不仅 OpenAI 为之振奋,整个硅谷都为 AI 在医疗领域的潜力欢呼。彼时,AI 在医学应用上的前景似乎一片光明。然而三年过去,顶尖医学专家却提出了不 ...
|
2023 年,GPT-4 在美国执业医师资格考试(USMLE)中取得惊人成绩,不仅 OpenAI 为之振奋,整个硅谷都为 AI 在医疗领域的潜力欢呼。彼时,AI 在医学应用上的前景似乎一片光明。 然而三年过去,顶尖医学专家却提出了不同的声音:反对 AI 直接接入医院病历系统。 这位提出警示的人是复旦大学附属华山医院感染科主任 张文宏。在近期的一场医学论坛上,这位长期活跃在临床一线的专家直言不讳:年轻医生必须经过系统训练,才能真正分辨 AI 给出的建议是正确还是错误。 张文宏的观点提醒我们,在医疗实践中,AI 可能带来效率和便利,但绝不能替代医生自身的判断能力,尤其是在培养新一代医学人才的关键阶段。 张文宏并非完全反对 AI 的使用。实际上,他坦言自己在处理大量病历时,也会先让 AI 进行初步分析,以提高效率。但不同的是,他凭借多年的临床经验,可以一眼识别 AI 输出中的问题。 相比之下,年轻医生如果跳过必要的训练和实践,仅依赖 AI 得出与资深专家相同的诊断,往往无法真正理解结果中的对错。这正是张文宏最担忧的地方。
不过,这番言论并非所有人都认同。正活跃于医疗 AI 赛道的 百川智能 创始人 王小川 就公开表示,他“反对张文宏的反对”,认为年轻医生可以合理利用 AI 来辅助诊疗。 在张文宏看来,AI 面对的其实是医生的“蛋糕”,在一定程度上与医生的个人利益存在冲突。在医院体系中,医生为了升职和职称评定,往往将教学和科研放在首位,而 AI 则可以专注于直接服务患者。 话里话外,这似乎在暗示医生更关心自身利益,而不够关注患者。但事实上,在现代医疗系统中,医生的效率和患者利益通常是高度绑定的。如果 AI 能够显著提升诊疗效率、降低误诊率,那这本身就是对患者最直接的好处。 张文宏还指出,医生日常过于繁忙,几乎没有额外时间去使用 AI 工具,尤其是 AI 无法帮助他们完成写论文或晋升职称等任务。因此,他得出的结论是:AI 应该从一开始就服务于患者,优化流程、辅助决策,而不是取代医生或挑战医生地位。这也说明,并不存在“当 AI 足够强大时,不需要医生”的必然逻辑。 对此,百川智能创始人 王小川 提出不同看法。他认为,AI 直接服务个人用户,是合理且可行的商业路径。有人说王小川“屁股决定脑袋”,但张文宏的观点也同样有其自身偏向:一方关注患者,一方关注效率和商业价值。 AI 医疗是一块肥肉医疗 AI 的市场潜力巨大,不仅是国内创业者关注的焦点,国外科技巨头也在不断试探。上周,OpenAI 发布了 ChatGPT Health,通过整合 Apple 健康数据、个人医疗记录和其他健康应用数据,让 AI 提供分析和健康建议。
目前全球已有超过 2.3 亿人使用 ChatGPT 获取健康咨询,这充分显示了用户对 AI 医疗服务的强烈需求。不过,OpenAI 仍保持谨慎:官方强调这类服务不能替代专业诊疗,更多面向日常健康管理与生活指导。 Anthropic 公司也计划进一步拓展其 AI 模型 Claude 在医疗领域的应用。根据最新发布的 Opus 4.5 版本表现来看,Claude 在医疗任务上的能力已经显示出可观的水平。 即便如此,Claude 的医疗规划并不是直接面向患者的。Anthropic 推出的 Claude For Healthcare 更像是一个信息桥梁:它帮助医生和医务人员快速从行业标准系统和数据库中提取关键信息,提高工作效率。对个人用户而言,Claude 的作用在于整理病史、解释检查结果和各项指标,并帮助患者准备就诊问题,从而优化医生与患者之间的沟通。 可以看出,这两家 AI 巨头虽然都进军了医疗领域,但核心目标并非替代医生。唯独一家例外——Grok。
Grok 的创始人是 埃隆·马斯克,他曾多次公开表示:人类医生受限于可阅读文献和记忆容量,而 AI 可以在几秒钟内浏览所有历史医学论文,掌握最新治疗方案。在纯诊断准确性上,人类医生无法与 AI 相抗衡。马斯克的愿景显而易见:让 AI 成为医生的替代者,而不仅仅是辅助工具。 马斯克自己甚至把个人的 X 光片和验血报告交给 Grok 处理,并表示 AI 在某些判断上比医生更快、更准确。 这不正印证了张文宏的担忧吗?对 AI 的依赖越多,人类医生就越容易产生“上瘾”心理,判断力也可能因此下降。 判断力需要训练,而 AI 并非万能类似情况并非首次发生。早在大语言模型引发 AI 热潮之前,放射科就已经引入了 CAD 系统(计算机辅助检测)。CAD 如今在医学影像领域已经成为标准工具,但其引入初期,便暴露了“自动化偏差”问题。 2004 年,英国一项研究显示:当 CAD 系统漏标或错标病灶时,放射科医生的检测敏感度(Sensitivity)显著下降,尤其是依赖 CAD 辅助的医生,其敏感度甚至低于未使用 CAD 的对照组。 更近的例子来自 2020 年,一项针对皮肤癌检测的研究发现:当 AI 给出正确诊断时,医生的准确率明显提高;但当 AI 输出错误时,经验不足的医生表现下降最为明显。
综合来看,AI 与医生协作时准确率最高:AI 提供辅助,医生提供判断力与经验,这是目前医疗实践中最可靠的模式。 经验丰富的专家,比如张文宏,之所以能够一眼识破 AI 的错误,是因为他们脑中储存了几十年的临床经验和病例积累。相比之下,如果年轻医生从实习期就依赖 AI 来撰写病历或做诊断,他们的“内部数据库”几乎空白,缺乏独立判断的基础。 这也意味着,任何试图让 AI “一步到位”完成诊疗的行为,都伴随着巨大的风险。无论是完全取代医生,还是直接服务患者,都存在潜在的严重问题。
过去我们曾调侃“百度看病,癌症起步”,而在生成式 AI 的时代,问题更棘手:AI 往往表现出极高自信,即便给出的医学建议错误,也能用条理清晰、引用看似权威(甚至可能伪造)的文献来支撑自己的判断,让人难以分辨真伪。 即便是受过多年专业训练的年轻医生,在面对 AI 的“自信输出”时,也可能放下戒备,出现所谓的自动化偏差。如果是普通用户、毫无医学背景的人,这种“完美幻觉”的风险就更高,本质上和盲目相信“专家头衔”没有太大区别。 那么,AI 对普通人的健康是否有帮助?答案是肯定的,否则也不会有 2.3 亿用户依赖它。但关键是要分清楚两件事:保健和治病。 保健包括日常作息、饮食调理、补充剂使用、运动计划等,这类行为对生命安全风险低,AI 可以提供参考建议。而治病则复杂得多,目前 AI 最常用的仍是症状分析、检查报告指标解读以及一些基础用药指导。 更直观地说,AI 可以帮助用户争取宝贵时间:在症状初现时,合理调整生活、使用基础药物,甚至为去医院做准备。毕竟,在国内,挂号难、预约慢,即便是社区医院也可能排长队,AI 在一定程度上能缓解这一压力,让病程不至于恶化,减轻身体不适。
然而,作为自己健康的第一责任人,每个人都不应完全依赖 AI。持续培养自身的判断力,才是真正掌握主导权和决策权的关键。 |
评论