OpenAI心理健康安全负责人Andrea Vallone加盟Anthropic

Source

品玩1月19日讯,据 The Verge 报道,OpenAI前“模型政策”研究负责人Andrea Vallone正式加入Anthropic对齐(Alignment)团队,聚焦AI系统在心理健康等敏感场景下的行为规范。Vallone在OpenAI任职三年,主导GPT-4与GPT-5的安全部署,并参与设计“基于规则的奖励”等主流安全训练方法。

她将向Jan Leike汇报工作。Leike于2024年5月离开OpenAI,曾公开批评公司“安全文化让位于产品光鲜度”。过去一年,多起用户因与AI长期倾诉后发生自杀或暴力事件,引发诉讼及美国参议院听证,凸显情感安全机制的紧迫性。

Vallone表示,期待通过微调与对齐技术,在新情境下塑造Claude的行为。Anthropic对齐团队负责人Sam Bowman称,公司正严肃对待“AI应如何行为”这一核心问题。