微軟正式發(fā)布新款芯片Maia 200,該公司稱這款芯片是為 AI 推理規(guī)?;渴鸫蛟斓母咝阅芎诵乃懔π酒?。
作為 2023 年推出的Maia 100的升級款,微軟表示,Maia 200 在技術(shù)上實現(xiàn)了升級,能夠以更快的速度、更高的能效運行高性能 AI 模型。這款芯片集成超 1000 億個晶體管,4 比特精度下的算力可達(dá) 10 petaflops 以上,8 比特精度算力約 5 petaflops,相較上一代產(chǎn)品實現(xiàn)大幅提升。
AI 推理指運行已訓(xùn)練完成模型的計算過程,與模型訓(xùn)練所需的計算過程不同。隨著人工智能企業(yè)的發(fā)展走向成熟,推理成本在企業(yè)整體運營成本中的占比持續(xù)提升,也讓行業(yè)重新聚焦于推理流程的優(yōu)化方案。
微軟希望 Maia 200 能成為推動這一優(yōu)化的關(guān)鍵產(chǎn)品,助力 AI 企業(yè)實現(xiàn)更穩(wěn)定的業(yè)務(wù)運行與更低的能耗。微軟表示:“實際應(yīng)用中,單節(jié)點 Maia 200 可輕松運行當(dāng)前規(guī)模最大的 AI 模型,且為未來更大規(guī)模的模型運算預(yù)留了充足的算力空間?!?/p>
當(dāng)前科技巨頭紛紛自研芯片,以此降低對英偉達(dá)的依賴 —— 英偉達(dá)的前沿圖形處理器(GPU)已成為人工智能企業(yè)發(fā)展的核心算力支撐,微軟這款新芯片的推出,正是這一趨勢的體現(xiàn)。例如,谷歌推出了張量處理單元(TPU),該產(chǎn)品并非以芯片形式對外銷售,而是通過谷歌云平臺以算力服務(wù)的形式開放;電商巨頭亞馬遜則擁有自研 AI 加速芯片 Trainium,其最新款 Trainium3 已于去年 12 月發(fā)布。這些自研芯片均可承接原本由英偉達(dá) GPU 承擔(dān)的部分計算任務(wù),從而降低企業(yè)的整體硬件成本。
這款芯片采用臺積電 3 納米制程工藝,每臺服務(wù)器內(nèi)集成四顆芯片,通過以太網(wǎng)電纜實現(xiàn)連接,而非 InfiniBand 高速互聯(lián)標(biāo)準(zhǔn)。英偉達(dá)在 2020 年收購邁絡(luò)思后,便開始推出 InfiniBand 交換機產(chǎn)品。
格斯里在博客中寫道,同等價格下,Maia 200 的性能較同類產(chǎn)品高出 30%。微軟表示,單顆 Maia 200 搭載的高帶寬內(nèi)存,容量超過亞馬遜云科技第三代 Trainium AI 芯片和谷歌第七代張量處理單元。
格斯里還指出,微軟可將多達(dá) 6144 顆 Maia 200 芯片組網(wǎng)聯(lián)動,在實現(xiàn)高性能算力的同時,降低能耗與整體擁有成本。
微軟透露,Maia 系列芯片已投入實際應(yīng)用,為該公司超智能團隊的各類 AI 模型提供算力支持,同時也為旗下聊天機器人 Copilot 的日常運營提供技術(shù)支撐。截至 1 月 26 日,微軟已邀請開發(fā)者、科研學(xué)者以及前沿人工智能實驗室等多方主體,在其業(yè)務(wù)算力負(fù)載中試用 Maia 200 軟件開發(fā)工具包(SDK)。