字節跳動大模型 被爆遭實習生攻擊
中國網路上傳出消息,中國網路技術公司字節跳動一名實習生,因對團隊資源分配不滿,近期往公司的大模型訓練注入破壞代碼,潛在損失可能超過千萬美元。
10月18日,多個微信群流傳一則消息:「某領頭大廠的大模型訓練被實習生入侵,注入了破壞代碼,導致其訓練成果不可靠,可能需要重新訓練。據稱遭到入侵的代碼注入了8000多張卡,帶來的損失可能超過千萬美元。」
陸媒界面新聞報導稱,有知情人士透露,該大廠為字節跳動,而此事件發生在今年6月。當時,某大學的一名博士生在字節跳動商業化技術團隊實習,因對團隊資源分配不滿,便使用攻擊代碼破壞團隊的模型訓練任務。
傳聞顯示,該田姓實習生利用了HF(huggingface)的漏洞,在公司的共享模型裡寫入破壞代碼,導致模型的訓練效果忽高忽低,無法產生預期的訓練效果,而且AML團隊無法核查原因。
據知情人士稱,字節跳動內部已經調查明確此事為田姓實習生所為。目前,該實習生已被辭退,而字節跳動已將此事通報給大模型行業聯盟和實習生所在學校。陸媒聯繫了字節跳動,就上述傳聞向該公司求證,但後者沒有就此作出回應。
據稱,該實習生攻擊的不是豆包大模型,而是商業化技術團隊的模型訓練任務。根據公開資料,字節跳動豆包大模型團隊成立於2023年,致力於開發AI大模型技術。此前字節跳動曾與中國的北大、清華等大學在大數據和人工智慧技術方面進行合作。字節跳動旗下的短影音社交平台抖音和TikTok,其核心競爭力正是依託大數據不斷優化的人工智慧算法。
該實習生在網路社群中公開闢謠,堅稱自己是被冤枉的,他稱自己當初發完論文後就離開了字節跳動,有另一個人趁機鑽漏洞改模型代碼,把鍋扣到了自己頭上。
一位技術安全專家在接受陸媒採訪時介紹說,HF漏洞的產生通常與單一性集中訓練有關。如果傳聞屬實,則此次事件暴露出字節跳動在技術訓練中,既未實施權限隔離,也未做好共用代碼的審計工作,存在安全管理問題。◇