各机构对大语言模型(LLM)DeepSeek表示关注,因其承诺能以更低成本提供与竞争平台相似的性能。然而,由于DeepSeek来自中国,这引发了一些担忧。实际上,机构需要对任何公共LLM提供商保持警惕。
公共LLM具有易用性高、成本低和社区庞大等优势。但这些优势可能以牺牲数据安全为代价。尽管DeepSeek的中国背景确实引发担忧,但使用任何公共LLM都会使组织数据面临风险。这些风险可能引发安全漏洞、错误信息传播和监管问题,因此组织必须建立严格的数据控制和审计机制。
应用程序开发人员是控制LLM使用的第一道防线。他们负责检测、清理和限制数据传输,确保与LLM的安全连接,包括保护客户端ID、密钥和授权令牌。
API网关是另一重要防护层。随着预测性和生成式AI的应用扩展,数据访问需求增加,API调用随之增多。然而,AI正推动API向传统网关难以应对的方向发展。
智能AI的兴起带来新的挑战。由于涉及自主运行的小型模型与其他API和服务的集成,企业环境中的AI代理通常部署在内部平台上。这产生了大量东西向流量,而API网关并非针对此类流量进行优化。
组织应在AI系统中集成以下防护措施:
DeepSeek等公共LLM虽然功能强大,但组织在使用时必须谨慎对待数据传输。无论是DeepSeek还是其他LLM提供商,其安全性都需要严格评估。建议组织在接入任何公共LLM之前,部署完善的安全防护、监控和管控系统。