訂閱
糾錯
加入自媒體

谷歌第七代TPU來了,號稱最強大的AI處理器

前言

預(yù)計至2025年,AI領(lǐng)域?qū)⒔?jīng)歷一次重大轉(zhuǎn)型,生成式AI的應(yīng)用將不再局限于回答簡單問題,而是通過智能系統(tǒng)解決更為復(fù)雜的問題。

AI的未來發(fā)展不僅局限于更大規(guī)模的模型構(gòu)建,更在于模型能夠?qū)栴}進行分解、執(zhí)行多步驟推理,并模擬人類思維過程。

作者| 方文三

圖片來源|網(wǎng) 絡(luò)

谷歌第七代TPUIronwood正式發(fā)布

在本周三,谷歌公司正式推出了其第七代張量處理單元(TPU)——Ironwood。該公司宣稱,在大規(guī)模部署的條件下,該AI加速器的計算性能可達到全球最快超級計算機性能的24倍以上。

這款在Google Cloud Next 25大會上亮相的新芯片,標(biāo)志著谷歌在AI芯片研發(fā)領(lǐng)域十年戰(zhàn)略的關(guān)鍵轉(zhuǎn)折點。

此前谷歌自行研發(fā)的幾代TPU主要針對AI的訓(xùn)練和推理任務(wù),而Ironwood則是首款專為推理任務(wù)設(shè)計的芯片。

Ironwood芯片旨在滿足生成式AI下一發(fā)展階段的巨大計算和通信需求。

Ironwood芯片具備卓越的技術(shù)規(guī)格,當(dāng)每個pod擴展至9216塊芯片時,它能提供42.5 exaflops的AI計算能力。

這一數(shù)值遠超目前全球最快的超級計算機El Capitan的1.7 exaflops。每塊Ironwood芯片的峰值計算能力可達4614 TFLOPs。

在單芯片規(guī)格方面,Ironwood顯著提升了內(nèi)存和帶寬性能,每塊芯片配備192GB高帶寬內(nèi)存(HBM),是去年推出的上一代TPU Trillium的六倍。

每塊芯片的內(nèi)存帶寬達到7.2 terabits/s,是Trillium的4.5倍。

該芯片專為AI推理任務(wù)而設(shè)計,象征著AI[響應(yīng)式]模型向[主動式]模型的演進。

換言之,它標(biāo)志著從僅提供實時信息的模型向能夠主動生成洞察和解讀的模型的轉(zhuǎn)變。

其目標(biāo)在于賦予智能體(Agent)主動檢索、數(shù)據(jù)生成及協(xié)作推理的能力,而不僅僅是被動地響應(yīng)查詢。

此外,Ironwood芯片首次支持FP8計算格式,并在張量核和矩陣數(shù)學(xué)單元中實現(xiàn)了這一功能,從而在處理大規(guī)模推理任務(wù)時顯著提升了效率。

盡管英偉達的B200芯片在某些性能指標(biāo)上略占優(yōu)勢(例如內(nèi)存帶寬達到8 Tbps,略高于Ironwood的7.2 Tbps),但Ironwood的整體性能依然非常接近,甚至在某些方面超越了B200。

在對谷歌Ironwood與英偉達B200進行對比分析時,從競爭格局的角度來看,谷歌通過TPU與Google Cloud、Pathways軟件棧的深度集成,吸引了OpenAI創(chuàng)始團隊等客戶,從而加強了其在生成式AI市場的地位。

圖片

AI超級計算架構(gòu)不斷完善和升級

生產(chǎn)力的革新始于谷歌在基礎(chǔ)設(shè)施層面的全面AI化。

預(yù)計到2025年,谷歌將投資約750億美元用于服務(wù)器和數(shù)據(jù)中心的建設(shè)。

此外,為了進一步協(xié)助客戶擁抱AI,Google Cloud 宣布將提供接近零延遲的云廣域網(wǎng)(Cloud WAN)服務(wù),向全球數(shù)十億用戶提供。

與其它托管及開源Kubernetes 產(chǎn)品相比,Cloud WAN 能夠?qū)⒕W(wǎng)絡(luò)性能提升40%,同時將總擁有成本(TOC)降低40%。

自去年與英偉達建立戰(zhàn)略合作伙伴關(guān)系以來,谷歌提供了基于英偉達GPU的廣泛產(chǎn)品線,使得用戶能夠在 Google Cloud 上使用英偉達最新硬件訓(xùn)練生成式AI模型。

今年,谷歌進一步推出了搭載英偉達B200 和 GB200 Blackwell GPU 的 A4 和 A4X 虛擬機,顯著增強了其GPU產(chǎn)品組合。

據(jù)透露,Google Cloud 將成為首批提供英偉達下一代 Vera Rubin GPU 的公司之一,該 GPU 每個機架可提供高達 15 exaflops 的 FP4 推理性能。

除了芯片技術(shù)之外,谷歌認為存儲是減少訓(xùn)練和推理瓶頸的關(guān)鍵因素。

為了實現(xiàn)更高的數(shù)據(jù)吞吐量和更低的延遲,谷歌此次對存儲層面也進行了更新。

特別是,Ironwood的設(shè)計目標(biāo)是在執(zhí)行大規(guī)模張量運算時,盡可能地減少芯片上的數(shù)據(jù)傳輸和延遲。

谷歌為Ironwood TPU量身打造了低延遲、高帶寬的ICI網(wǎng)絡(luò),以支持在全TPU集群規(guī)模下的協(xié)調(diào)與同步通信。

Ironwood 芯片搭載了第三代 SparseCore 加速器,該加速器首次應(yīng)用于 TPU v5p,并在去年的 Trillium 芯片中得到了進一步的優(yōu)化。

SparseCore 芯片最初旨在加速推薦模型的運行,這些模型通過使用嵌入技術(shù)來實現(xiàn)跨用戶類別的推薦功能。

推理優(yōu)化將成為AI模型發(fā)展新趨勢

Ironwood芯片,作為谷歌推出的首款專為推理運算設(shè)計的TPU,承擔(dān)著將經(jīng)過訓(xùn)練的AI模型應(yīng)用于實際場景,進而產(chǎn)生預(yù)測或響應(yīng)的任務(wù)。

推理運算相較于訓(xùn)練過程,每日在全球范圍內(nèi)發(fā)生數(shù)十億次,其成本與效率對于AI技術(shù)的經(jīng)濟性具有決定性影響。

長期以來,業(yè)界致力于構(gòu)建規(guī)模日益龐大的基礎(chǔ)模型,各大公司主要在模型參數(shù)量級和訓(xùn)練能力上展開競爭。

然而,當(dāng)前階段,部署效率和推理能力的重要性日益凸顯。

谷歌的這一戰(zhàn)略轉(zhuǎn)變,不僅標(biāo)志著AI領(lǐng)域的一個關(guān)鍵轉(zhuǎn)折點,也預(yù)示著我們正邁入一個以部署效率和推理能力為核心的全新發(fā)展階段。

Ironwood芯片的推出,降低了運行復(fù)雜AI模型的經(jīng)濟負擔(dān)和操作難度,使得更廣泛的商業(yè)實體能夠承受并部署先進的AI系統(tǒng)。

此外,Ironwood芯片的高能效特性有助于減少數(shù)據(jù)中心的能源消耗,這對于推動AI技術(shù)的可持續(xù)發(fā)展具有積極意義。

谷歌還提出了多智能體系統(tǒng)的構(gòu)想,通過Agent開發(fā)套件(ADK)和Agent間互操作性協(xié)議(A2A),旨在實現(xiàn)不同框架和供應(yīng)商構(gòu)建的AI代理之間的通信。

這種互操作性預(yù)期將打破AI系統(tǒng)的孤立狀態(tài),促進AI技術(shù)在企業(yè)中的更廣泛運用。

谷歌正與Salesforce、ServiceNow、SAP等超過五十家行業(yè)領(lǐng)先企業(yè)合作,共同推進這一AI互操作性標(biāo)準(zhǔn)的實施。

圖片

結(jié)尾:

顯而易見,經(jīng)過多年的尖端技術(shù)革新,谷歌在AI領(lǐng)域的探索邊界正不斷擴展。

其發(fā)展路徑從單一工具演進至端到端的AI平臺,從通用領(lǐng)域深入至垂直行業(yè),從封閉系統(tǒng)轉(zhuǎn)向開放生態(tài)的構(gòu)建,以及從AI的初步嘗試到規(guī);渴稹

目前,谷歌所展現(xiàn)的模型、平臺與芯片三位一體的差異化優(yōu)勢正逐步顯現(xiàn)。

部分資料參考:機器之心:《42.5 Exaflops:谷歌新TPU性能超越最強超算24倍,智能體協(xié)作協(xié)議A2A出爐》,信創(chuàng)芯球:《谷歌推出第七代TPUIronwood AI芯片,將重塑AI推理新格局》,Infoc:《TPU 性能提升10倍,開源 A2A 顛覆智能體交互》

       原文標(biāo)題 : AI芯天下丨熱點丨谷歌第七代TPU來了,號稱迄今為止最強大的AI處理器

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號