在探讨中国数字审查时,人们往往陷入两种极端:要么索然无味,要么引人入胜。多数讨论仍在重复20年前的老调,将中国互联网比作乔治·奥威尔(George Orwell)的《1984》。然而,随着新兴技术的发展,研究人员不断发现中国政府控制技术的新方式,揭示出审查机制的持续演变。
斯坦福大学和普林斯顿大学的最新研究对比了4个中国大语言模型和5个美国模型的表现。研究团队向这些模型提出了145个政治敏感问题,并进行了超过100次的重复测试。
研究结果印证了业内人士的观点:中国模型明显倾向于拒绝回答敏感问题。具体数据显示:
即使在回答问题时,中国模型也倾向于提供更简短且不够准确的信息。
研究的一个重要方向是区分预训练和后期训练的影响。斯坦福大学政治学教授珍妮·潘(Jennifer Pan)指出:"考虑到中国互联网长期存在的审查,数据存在大量缺失。"
研究发现,手动干预可能比训练数据对AI模型的审查行为影响更大。即使在使用英语回答问题时,中国大语言模型仍表现出明显的审查倾向,这说明审查并非仅源于训练数据的限制。
该研究的重要意义在于提供了可量化和可重复的证据,展示了中国大语言模型的系统性偏见。然而,研究人员面临着多重挑战:
中国媒体项目(China Media Project)的AI宣传研究员亚历克斯·科尔维尔(Alex Colville)强调:"优质研究需要时间积累,但AI发展的速度却不允许我们从容应对。"这种紧迫性突显了持续研究和监测AI审查机制的重要性。