印度出台新规定,要求社交媒体公司在收到下架令后3小时内删除深度伪造和其他非法的人工智能生成内容。作为全球最大在线市场之一,这一规定将显著影响平台的运营方式。
据《科技前沿》(TechCrunch)报道,印度于周二宣布新规定,要求社交媒体平台加快删除非法AI生成内容,并确保所有合成内容都有清晰标识。这些要求将于2026年2月20日起具有法律约束力。
印度拥有近10.2亿互联网用户和约5亿独立社交媒体用户。社交媒体平台需要部署技术工具来检测和标记深度伪造内容,验证用户披露信息,并防止创建或传播被禁止的合成内容。
根据更新后的规则,社交媒体公司必须在3小时内执行官方下架令,某些紧急用户投诉的内容必须在2小时内处理完成。据科技媒体The Verge报道,这大幅缩短了此前36小时的处理期限。
印度修订后的信息技术规则要求数字平台部署适当且有效的技术手段,防止用户创建或分享非法的合成内容。未被屏蔽的内容必须包含永久元数据或其他技术来源标识。
平台必须要求用户披露AI生成或编辑的内容,并使用工具验证这些信息。AI生成的内容需要清晰标记,使用户能够立即识别。例如,AI生成的图像需要添加标识文字。
某些类型的合成内容被完全禁止,包括欺骗性冒充、未经同意的亲密图像,以及与严重犯罪相关的内容。未能遵守规定的公司可能失去印度法律下的安全港保护,增加其法律责任。