IBM開發(fā)新的光學(xué)技術(shù)實(shí)現(xiàn)光速AI訓(xùn)練
IBM 開發(fā)了一種新的光學(xué)技術(shù),可以以光速訓(xùn)練 AI 模型,同時(shí)節(jié)省大量能源。該公司表示,通過將其突破性技術(shù)應(yīng)用于數(shù)據(jù)中心,訓(xùn)練 AI 模型時(shí)節(jié)省的能源相當(dāng)于 5000 個(gè)美國家庭的年度能源使用量。 &
vIKNGJ^ 該公司解釋說,雖然數(shù)據(jù)中心通過光纖電纜與外界相連,但在內(nèi)部,他們?nèi)栽谑褂勉~線。這些電線連接 GPU 加速器,這些加速器在等待來自其他設(shè)備的數(shù)據(jù)時(shí)會(huì)花費(fèi)大量時(shí)間處于空閑狀態(tài),同時(shí)消耗能源并推高成本。 -)Vj08aP
[attachment=131041] JQ1VCG IBM 高級副總裁兼研究總監(jiān) Dario Gil 在評論這一發(fā)展時(shí)表示:“由于生成 AI 需要更多的能源和處理能力,數(shù)據(jù)中心必須不斷發(fā)展——而同封裝光學(xué)器件可以使這些數(shù)據(jù)中心面向未來。有了這一突破,未來的芯片將像光纖電纜將數(shù)據(jù)傳入和傳出數(shù)據(jù)中心一樣進(jìn)行通信,開啟一個(gè)更快、更可持續(xù)的通信新時(shí)代,可以處理未來的 AI 工作負(fù)載! 0x &^{P~ IBM 在一份技術(shù)論文中概述了其新的共封裝光學(xué)器件 (CPO) 原型。通過顯著增加數(shù)據(jù)中心的帶寬,可以最大限度地減少 GPU 停機(jī)時(shí)間,從而加速 AI 處理。 2~4C5@SxL IBM 解釋說,大型語言模型 (LLM) 的訓(xùn)練時(shí)間可以從三個(gè)月縮短到三周。同時(shí),提高能源效率將減少能源使用量并降低與訓(xùn)練 LLM 相關(guān)的成本。
|