印度政府出台新规定,要求社交媒体公司在收到通知后3小时内删除违法内容,这大大缩短了此前36小时的处理期限。
这项修订后的规定将于2月20日生效,适用于包括Meta、YouTube和X在内的主要平台。虽然政府没有解释缩短处理时限的原因,但批评者担心这可能导致世界最大民主国家出现内容审查。
近年来,印度当局利用现有信息技术规则,要求社交媒体平台删除涉及国家安全和公共秩序的违法内容。这些规则赋予当局对社交媒体内容的广泛管控权。根据透明度报告,2024年应政府要求已封禁超2.8万个网址。
新规首次明确定义了AI生成内容,包括经过创建或修改以呈现真实效果的音频和视频,如深度伪造内容。普通编辑、无障碍功能及教育设计作品不在此列。平台必须对AI内容进行清晰标注,添加永久标记以追溯来源,且标注后不得删除。
平台必须使用自动化工具检测和防止非法AI内容,包括欺骗性内容、未经同意的内容、虚假文件、儿童性虐待内容、爆炸物相关内容和冒充行为。
数字权利组织对新规表示担忧。互联网自由基金会(Internet Freedom Foundation)指出,压缩的时限将迫使平台成为"快速审查者"。数字未来实验室(Digital Futures Lab)研究员安努什卡·贾恩(Anushka Jain)认为,虽然标签要求有助于提高透明度,但3小时期限可能导致内容审核完全自动化。
德里科技分析师普拉桑托·K·罗伊(Prasanto K Roy)表示,这可能是民主国家最严格的内容删除制度。他指出,如无大规模自动化处理,平台几乎不可能在短时限内完成合规审核。对于AI标签规定,他认为意图积极但当前技术尚未成熟。