英国近三成全科医生在诊疗中使用AI工具
核心发现
根据英国智库纳菲尔德信托基金会对2108名全科医生的调查和焦点小组讨论,近三分之一(28%) 的英国全科医生已在患者咨询中开始使用以ChatGPT为代表的人工智能工具。这标志着AI在医疗领域的应用正迅速普及。
关键数据与趋势
- 使用率:在接受调查的医生中,598人(占总数的28%) 报告在日常工作中使用AI工具。
- 性别差异:男性医生使用率(33%)高于女性医生(25%)。
- 地区差异:经济状况较好地区的医生使用率更高。
- 增长趋势:另一项发表于《数字健康杂志》的研究显示,全科医生的AI使用率已从去年的20% 上升至25%。瑞典乌普萨拉大学的首席研究员夏洛特·布利斯博士指出,生成式AI在短短一年内已从“禁忌”转变为医疗工具。
主要驱动因素与用途
- 减轻工作负担:医生使用AI的主要目的是减少工作压力。
- 时间分配:调查发现,医生通常将使用AI节省下来的时间用于自我调节和休息,而非接诊更多病人。
主要担忧与风险
绝大多数医生,无论是否使用AI,均对以下方面表示担忧:
- 职业责任与医疗法律问题
- 临床错误风险
- 患者隐私与数据安全
纳菲尔德信托基金会首席研究员贝基·费舍尔博士指出,英国政府对NHS(国家医疗服务体系)进行AI转型的期望与实际状况之间存在巨大差距。在缺乏国家级监管的情况下,医生难以对使用这些工具感到放心。
- 目前,一些地区卫生机构支持医生使用AI,而另一些则明令禁止。
- 布利斯博士强调,真正的风险在于医生在没有充分培训和监督的情况下使用AI。
患者端的使用情况
越来越多的患者也开始使用AI来改善就医体验,尤其是在无法预约到全科医生时。
- 患者权益组织“英格兰健康观察”副首席执行官克里斯·麦卡恩表示,尽管患者仍信任来自NHS的信息,但已有约9%的患者开始使用AI工具获取健康信息。
- AI提供的建议质量参差不齐,在某些情况下甚至可能产生误导。
监管动态
英国政府已于2025年9月成立专门委员会,旨在就如何确保AI在医疗保健领域安全、有效和规范地使用提出建议。卫生与社会保健部已被联系以获取进一步评论。
行业背景关联
- AI安全现状堪忧:同期发布的《2025年AI安全指数》报告显示,领先的AI公司在生存风险控制和安全流程披露方面普遍表现不佳,行业平均分仅为42/100,远低于欧盟标准。OpenAI、DeepMind等公司尚未披露针对“超智能”的应对措施。
- 企业应用深化:例如,Anthropic与Snowflake达成2亿美元协议,计划在2026年第一季度前将Claude AI原生集成至其数据平台。
- 市场挑战:微软的AI服务销售遭遇挫折,销售目标被下调了50%,反映出企业对于完全用AI替代人力仍持谨慎态度。
总结
AI在英国基层医疗中的渗透率正在快速提升,其主要价值在于辅助医生、减轻行政负担。然而,缺乏统一监管、潜在的法律与伦理风险、以及AI输出质量的不稳定性,构成了当前应用的主要挑战。未来,如何在推动技术应用与建立可靠保障框架之间取得平衡,将是医疗AI发展的关键。
