心流logo

Grok AI被发现生成儿童不当图像

违规内容发现

互联网观察基金会(Internet Watch Foundation,简称IWF)表示,其分析人员在暗网论坛上发现了使用Grok(马斯克旗下xAI公司开发的AI工具)生成的"犯罪图像"。这些图像涉及11至13岁女童的性暗示和裸露内容。用户可通过Grok的官方网站、应用程序或X平台使用该工具。

违规程度评估

IWF分析师奈盖尔·亚历山大先生向BBC表示,这些内容根据英国法律被归类为C类违法材料(最低严重程度)。更令人担忧的是,有用户随后利用其他AI工具,将这些图像进一步处理成了A类违法内容(最严重级别)。

机构调查行动

IWF作为致力于清除儿童性虐待材料(Child Sexual Abuse Material,简称CSAM)的慈善机构,通过举报热线和专业分析师评估相关内容。他们强调,这些违规图像是在暗网上发现的,而非X平台。

平台回应措施

在接到可能被用于制作儿童不当图像的报告后,英国通信管理局(Ofcom)已就此事联系X平台和xAI公司。BBC发现多起用户要求Grok未经同意修改女性图片的案例。对此,X平台表示将对违法内容采取删除、封号等措施,并在必要时配合执法部门调查。