字節跳動大模型訓練被實習生攻擊,涉事者已被辭退
10月18日,多個微信羣流傳一則消息:“某頭部大廠的大模型訓練被實習生入侵,注入了破壞代碼,導致其訓練成果不可靠,可能需要重新訓練。據稱遭到入侵的代碼注入了8000多張卡,帶來的損失可能超過千萬美元。”
界面新聞從知情人士處獲悉,該頭部大廠爲字節跳動。此事發生在今年6月,起因是某高校的博士在字節跳動商業化技術團隊實習,因對團隊資源分配不滿,使用攻擊代碼破壞團隊的模型訓練任務。
界面新聞向字節跳動方面求證此事,截至目前,官方未進行迴應。
傳聞顯示,該田姓實習生利用了HF(huggingface)的漏洞,在公司的共享模型裡寫入破壞代碼,導致模型的訓練效果忽高忽低,無法產生預期的訓練效果,而且AML團隊無法覈查原因。但傳聞曝出之後,該實習生還在某微信羣裡闢謠稱,自己發完論文後就從字節跳動離職,這個當口有另一個人鑽漏洞改模型代碼,把鍋扣到自己頭上。
界面新聞從知情人士處瞭解到,字節跳動內部已經調查明確此事爲田姓實習生所爲。目前,該實習生已被辭退,字節跳動同時把此事同步給大模型行業聯盟和該實習生所在的給學校。但這名實習生被辭退後到處“闢謠”甩鍋,稱是其他人所爲。
但該實習生攻擊的並不是豆包大模型,而是商業化技術團隊的模型訓練任務,影響了該技術團隊的一些業務進展,但整體對公司造成的損失並沒有傳聞中的超過千萬美元那麼大。
一位技術安全專家告訴界面新聞,HF漏洞產生肯定是單一性集中訓練,此事暴露了字節跳動技術訓練存在安全管理問題。公司既沒做權限隔離,也沒有做好共用代碼的審計。正常情況下,每次大的代碼變動必須做審計,無論誰做操作都有痕跡記錄,一個人想動代碼是不可能的。
上述技術安全專家表示,目前行業通用的做法是做三級隔離導向性部署,每一級只有鏡像,每次先掃描。調用按次算、必須密鑰。每一級完成後,才能進入下一級,而上一級自動刪除,進行分級訓練。
來源:界面新聞