一则医生自述引发热议:一位患者拿着DeepSeek开具的治疗方案质疑其诊断,该医生查阅最新医学指南后,发现AI的建议更符合更新后的标准,不禁感叹“天塌了”。
他的这句感慨戳中了医疗行业的集体焦虑,当AI的诊断准确率开始超越部分医生的经验判断,这个需要终身学习的职业是否会被算法淘汰?
事实上,类似案例已非孤例,某三甲医院统计显示,过去一年接诊的“AI复诊患者”中,有相当一部分患者曾因网络问诊结果与医生意见冲突产生质疑,而在微博相关话题下,既有网友感叹“AI比专家号还快还便宜”,也有人调侃:“以后看病先问AI,医生负责盖章就行?”
那么以后医生会被 AI 取代吗?越来越多人用 AI 诊断病情、买药,AI 真能替代医生吗?
不得不承认,AI 诊断有不少优势,山东一位家长将孩子血检报告导入 DeepSeek,得到的诊断和用药方案与三甲医院医生一致。还有国际医疗科技公司开发的 AI 诊断系统,通过分析病历、影像和基因信息,能快速识别罕见病早期症状,准确率超 90%。
AI 诊断速度快,几秒就能完成,而人类医生可能要数小时甚至数天,它还能从海量数据中找规律,减少误诊,降低医疗成本,还能 24 小时服务,在影像诊断方面,AI 影像诊断系统处理 CT 仅需几秒,比传统人工诊断效率提升逾 20 倍,识别准确率也很高。
但 AI 诊断也存在隐患。AI 毕竟不是真人,会出错还无需担责,媒体记者在 DeepSeek 上测试问诊,仅描述 “鼻塞、不通气,但不咳嗽、不流鼻涕”,没有提供性别、年龄、身高、体重等信息,DeepSeek 就给出了处方建议。
成都医学院第二附属医院中西医结合科主任李涛指出,中医讲究 “望闻问切”,患者无法在 AI 上描述舌苔和脉象,仅凭一句症状描述,DeepSeek 无法准确判断疾病,只能给出通用处方,而且,AI 在沟通和人文关怀上存在天然缺陷。
中医讲究“同病异治”,AI却可能将“失眠”统一归为安神类药物。某患者按AI建议服用酸枣仁汤后反而心悸加剧,暴露出算法忽视体质差异的缺陷,当AI处方导致医疗事故,追责成为难题。2025年某省明确禁止AI直接开处方,正是基于“开发者难担责,使用者难举证”的困境。
比如腹痛可能是肠胃炎、宫外孕甚至心梗,AI依赖结构化数据,而老医生能从患者握热水杯的姿势、说话时的微表情中发现端倪。某急诊科主任直言:“AI像拿着地图的游客,我们却是活了几十年的向导。”
对于 AI 诊断,网友们看法不一,有的网友觉得 “以后看病再也不用排队了”“希望 AI 能普及到偏远地区,让更多人享受到优质医疗”,也有网友认为 “看病还是得找医生,AI 有一定合理性,但是不够专业”“人类医生不可替代” 。
当AI能背诵整本《内科学》,医生更需要思考如何守护“望触叩听”中的温度,当算法不断刷新准确率记录,医疗行业真正稀缺的,或许是能对着CT片说“我理解你的恐惧”的那个身影,技术终将改变职业形态,但医学的本质是用科学手段表达对人类苦难的共情,我们还需要那颗跳动的仁心。
正如某网友的清醒评论:“我们不需要和AI比谁更聪明,而要比谁更懂人。”这场变革中淘汰的,或许只是不愿学习的医生,而非医生这个群体本身,你认为呢?