近日OpenAI安全研究副总裁翁荔(Lilian Weng)宣布,将于本月15日离职。公开资料显示,翁荔为华人科学家,曾先后就职于eBay、Mozilla、Facebook、Dropbox等企业,于2017年加入OpenAI,在成为OpenAI安全团队负责人前曾参与机器人技术和深度强化学习的研究,并负责领导应用人工智能的研究团队。不久前,她曾在国内做一一场题为《AI安全与“培养”之道》的分享。
在离职声明中翁荔表示,“OpenAI是我成长为科学家和团队领导者的地方,我将永远珍惜与我一路共事和结交的朋友在一起的时光……回顾我们所取得的成绩,我为安全系统团队的每一个人都感到自豪,我非常相信团队将继续壮大发展……现在,在OpenAI工作了 7 年了,我准备重新开始并探索一些新东西。OpenAI正以火箭般的增长趋势上,希望这里的每个人一切都顺利”
同时她在这一声明中回顾了与相关团队所取得的成就,其中在AI安全层面,在GPT-4发布后她被赋予了一个新的使命,即重新思考OpenAI安全系统的愿景。对此她指出,“在训练这些模型既强大又负责任方面的工作上,我们树立了新的行业标准。我特别为我们最新的成就——o1-preview模型感到自豪,它是我们迄今为止最安全的模型,在保持其实用性的同时,表现出对越狱攻击的卓越抵抗力”。
需要注意的是,近来OpenAI方面已多次发生人员变动。例如此前在今年5月,OpenAI超级对齐团队负责人Jan Leike,以及联合创始人、前首席科学家Ilya Sutskever在同一天宣布离职。随后在8月初,OpenAI联合创始人John Schulman宣布离职,并表示将加入AI初创公司Anthropic,9月OpenAI首席技术官Mira Murati、ChatGPT语音模式团队负责人Alexis Conneau宣布离职。
值得一提的是,不久前OpenAI CEO萨姆・阿尔特曼曾透露,该公司的下一个大模型可能不会在今年发布,因为他们正在优先开发专注于推理和解决难题的模型。同时他还表示,“今年晚些时候会推出一些非常出色的模型,但我们不会将它们称为GPT-5”。
【本文图片来自网络】
4000520066 欢迎批评指正
All Rights Reserved 新浪公司 版权所有