心流logo

微软揭示AI对话隐私新漏洞

漏洞发现与原理

微软(Microsoft)近日披露了一个重要隐私漏洞,即使用户与ChatGPT等AI对话助手的对话内容经过加密,仍可能被泄露。这个被称为"窃窃私语泄露"(Whisper Leak)的漏洞使监控网络连接的人能够判断用户是否在讨论金融犯罪、政治等敏感话题。

根据微软安全专家乔纳森·巴尔·奥尔(Jonathan Bar Or)、杰夫·麦克唐纳(Geoff McDonald)和微软防御者安全研究团队(Microsoft Defender Security Research Team)的研究,这个漏洞源于AI对话助手采用逐字显示响应的方式。这种实时流式传输虽提升了对话体验,却带来了意外的隐私风险。

攻击机制与影响范围

攻击者通过分析用户与AI服务之间加密数据包的大小和传输时间来实施攻击。可能实施监控的主体包括互联网服务提供商级别的政府机构、本地网络攻击者,或者同一Wi-Fi网络中的其他用户。

微软研究团队通过人工智能训练的程序对Mistral、xAI、DeepSeek和OpenAI等多家公司的AI对话助手进行测试。结果显示,该程序能以超过98%的准确率识别特定对话主题。更令人担忧的是,随着攻击者收集的对话样本增多,识别准确率会进一步提升。

应对措施与安全建议

OpenAI、微软(Microsoft)和Mistral已采取有效的应对措施,通过在每个响应中添加随机长度的干扰内容来打乱数据包模式,从而使攻击失效。

针对该安全风险,微软建议用户:

更深层的安全启示

这一发现提醒我们,单纯的加密并不能确保完全的隐私保护。即使对话内容本身无法被读取,元数据(metadata)仍可能泄露敏感信息。这就像信件内容虽然保密,但通信对象和频率等信息仍可能暴露重要线索。

随着AI技术的普及,安全防护不仅要关注对话内容的保护,还需要重视通信模式可能暴露的信息。这要求我们在使用AI对话助手时保持警惕,采取必要的安全防范措施。