据《连线》(WIRED)杂志报道,OpenAI安全研究主管安德里亚·瓦洛内(Andrea Vallone)于上月在公司内部宣布离职。作为模型政策安全研究团队负责人的瓦洛内将于年底离开公司。
OpenAI发言人凯拉·伍德(Kayla Wood)已确认这一消息。目前公司正在积极寻找替代人选,过渡期间瓦洛内的团队将直接向公司安全系统主管约翰内斯·海德克(Johannes Heidecke)汇报。
瓦洛内的离职恰逢OpenAI就其旗舰产品ChatGPT面临更严格的审查。近期多起诉讼指控用户与ChatGPT形成不健康依赖。部分诉讼称ChatGPT导致用户出现心理健康问题或加重自杀倾向。
为应对这些挑战,OpenAI一直致力于改进ChatGPT对遭遇心理困扰用户的回应。瓦洛内领导的模型政策团队在10月份发布重要报告,详细介绍了与170多位心理健康专家的咨询成果。
报告显示,每周约有数十万ChatGPT用户表现出躁狂或精神危机的迹象,超过一百万用户的对话中包含潜在自杀计划或意图的明确指标。通过GPT-5的更新,OpenAI已将这类对话中不当回应的比例降低了65%到80%。
在OpenAI,如何让ChatGPT保持亲和力但避免过度讨好用户,是一个核心难题。目前ChatGPT每周活跃用户已超过8亿,公司正积极与谷歌(Google)、Anthropic和Meta的AI聊天机器人展开竞争。
8月发布的GPT-5曾因回应过于冷淡受到用户批评。在最新更新中,公司表示已大幅减少讨好性回应,同时保持了聊天机器人的"温暖"特质。
另一个负责ChatGPT用户回应的模型行为组也进行了重组。该团队前负责人乔安妮·姜(Joanne Jang)已转任新团队,专注探索新型人机交互方法。其余成员调至后训练主管马克斯·施瓦泽(Max Schwarzer)的团队。