心流logo

AI医疗咨询免责声明大幅减少

免责声明显著减少

根据最新研究发现,人工智能公司现已基本放弃了在回答健康问题时附加医疗免责声明和警告的标准做法。许多领先的AI模型不仅会回答健康问题,还会进行追问并尝试诊断。研究作者指出,这些免责声明对于向AI咨询从饮食失调到癌症诊断等各类问题的用户来说是重要提醒,而免责声明的消失可能导致用户过度信任不安全的医疗建议。

研究发现与数据变化

这项研究由斯坦福大学医学院(Stanford University School of Medicine)的富布赖特学者(Fulbright scholar)索纳利·夏尔马主导。在2023年评估AI模型解读乳腺X光片能力时,她发现模型总是会包含免责声明,有些甚至完全拒绝解读图像。然而,到了今年,这些警告突然消失了。

为深入研究这一现象,夏尔马对OpenAI、Anthropic、DeepSeek、Google和xAI等公司自2022年以来推出的15个模型版本进行了测试。测试内容包括500个健康问题和1,500张医学图像的分析。研究结果发表在arXiv预印本平台上,尚未经过同行评议。

数据显示,2025年的模型在回答医疗问题时,包含警告的输出比例不到1%。相比之下,2022年这一比例超过26%。在医学图像分析方面,包含警告的比例从早期近20%降至目前仅1%左右。

专家担忧与风险警示

斯坦福大学生物医学数据科学助理教授兼皮肤科医生罗克萨娜·丹尼什朱(Roxana Daneshjou)强调,免责声明的消失增加了AI错误导致现实伤害的可能性。尽管有用户在Reddit等平台上讨论如何绕过AI模型的提醒,但这些警告仍具有重要意义。

AI公司态度与应对

OpenAI和Anthropic的发言人都拒绝直接回应是否有意减少医疗免责声明。OpenAI指向其服务条款,强调输出内容不用于诊断健康状况。其他公司则未回应《麻省理工科技评论》(MIT Technology Review)的询问。

麻省理工学院(MIT)研究人类与AI互动的研究员帕特·帕塔拉努塔朋表示,取消免责声明可能是AI公司试图获取用户信任的策略。研究发现,即使AI工具常有错误,用户仍倾向于过度信任其医疗建议。

潜在风险与未来挑战

随着AI模型分析准确性提高,免责声明反而减少。这表明模型可能根据答案的可信度决定是否提供警告,这一趋势令人担忧。即便模型开发者明确表示不应依赖聊天机器人获取健康建议,但实际使用中的风险仍在增加。

帕塔拉努塔朋强调,在AI模型更强大且使用更广泛的今天,来自提供商的明确指导至关重要。这些模型虽然能生成听起来可靠的内容,但并不真正理解所讨论的内容,而模型越复杂,判断其正确性就越困难。