在与企业高管交流时,监管问题始终是一个重要话题。在生成式人工智能蓬勃发展两年后,行业仍处于监管的灰色地带。各行业合规要求不断收紧,企业面临的压力持续增长。
简单的内部政策已无法满足需求。企业亟需建立深层次的治理策略和即时内容合规工具。预计2025年将有更多企业寻求外部专业支持,以应对日益严格的合规要求。
2025年初,美国多个州已相继推出或实施新的人工智能监管法规,延续了各州填补联邦监管空白的趋势。特朗普总统废除了拜登前总统的人工智能行政令,副总统万斯(JD Vance)也呼吁反对欧洲过度监管,联邦层面的监管或将放松。
缺乏明确的联邦监管反而促使企业更加谨慎。特别是深度探索(DeepSeek)在快速发展后出现数据泄露事件,更凸显了建立完善安全措施的重要性。企业需要主动管理AI风险,确保合规并建立内部防护体系。
艾克罗琳克斯(Acrolinx)对全球大型企业,包括财富500强公司进行调查发现,近75%的企业已实施内部AI监管措施。然而,这些措施往往难以全面应对生成式AI风险。世界经济论坛数据显示,尽管企业制定了AI数据指南,仍有92%的用户发生公司数据泄露。
企业在以下三个方面面临挑战:
规模化应用:生成式AI需要高质量数据支持,扩展过程中可能出现质量不均的问题。
效率与合规平衡:提升效率不能以牺牲合规为代价,需要建立有效的防护机制。
风险管理:随着法规演进,AI相关风险持续增加,防护措施成为必需品。
预计更多企业将采用符合组织需求、政府标准和行业法规的综合解决方案。在高度监管的行业中,内容创作和客户服务仍需严格的合规审查。企业需要建立全面的内容审查机制,确保品牌安全。
随着监管收紧,合规成本将继续上升。从医疗保健到金融服务,各行业监管机构正在加快应对AI风险的步伐。企业必须根据行业特点、使用场景和地域要求制定合规路线图。建立强有力的治理机制和明确的防护措施,已成为企业保持长期竞争力的关键。