字节跳动大模型训练被实习生攻击,涉事者已被辞退

字节跳动大模型训练被实习生攻击,涉事者已被辞退
2024年10月18日 18:12 界面新闻

界面新闻记者 | 肖芳

界面新闻编辑 | 文姝琪

10月18日,多个微信群流传一则消息某头部大厂的大模型训练被实习生入侵,注入了破坏代码,导致其训练成果不可靠,可能需要重新训练。据称遭到入侵的代码注入了8000多张卡,带来的损失可能超过千万美元。

界面新闻知情人士获悉头部大厂字节跳动此事发生今年6月,起因高校博士字节跳动商业化技术团队实习,因对团队资源分配不满,使用攻击代码破坏团队的模型训练任务。

界面新闻字节跳动求方面证此事截至目前官方进行回应

传闻显示该田姓实习生利用了HF(huggingface的漏洞,在公司的共享模型里写入破坏代码,导致模型的训练效果忽高忽低,无法产生预期的训练效果,而且AML团队无法核查原因。但传闻曝出之后实习生还在某微信群里辟谣自己论文就从字节跳动离职这个当口有另一个人钻漏洞改模型代码扣到自己头上

界面新闻知情人士了解字节跳动内部已经调查明确此事田姓实习生所为。目前,该实习生已被辞退,字节跳动同时此事同步给大模型行业联盟实习生所在给学校。这名实习生被辞退后到处“辟谣”甩锅,称是其他人所为。

实习生攻击并不是豆包大模型而是商业化技术团队的模型训练任务,影响了技术团队一些业务进展整体公司造成损失并没有传闻超过千万美元那么大

一位技术安全专家告诉界面新闻HF漏洞产生肯定是单一性集中训练,此事暴露字节跳动技术训练存在安全管理问题。公司既没做权限隔离没有做好共用代码的审计正常情况每次大的代码变动必须做审计无论谁做操作都有痕迹记录一个人想动代码是不可能

上述技术安全专家表示目前行业通用做法级隔离导向性部署,每一级只有镜像,每次先扫描。调用按次算、必须密钥。每一级完成后,才能进入下一级,而上一级自动删除,进行分级训练。

财经自媒体联盟更多自媒体作者

新浪首页 语音播报 相关新闻 返回顶部