訂閱
糾錯
加入自媒體

英偉達(dá)跌到,DeepSeek吃飽

2025年2月27日,英偉達(dá)發(fā)布了2025財年第四季度財報。          

公司報告稱,Q4收入達(dá)到了393億美元,其中凈利潤220.91億美元,同比增長80%。調(diào)整后的每股收益為0.89美元,均超過了分析師預(yù)期的380.5億美元和0.84美元。此外,英偉達(dá)預(yù)計第一季度收入將達(dá)到430億美元,遠(yuǎn)高于分析師預(yù)測的417.8億美元          

全年收入創(chuàng)紀(jì)錄達(dá)到1305億美元,同比增長114%。

然而,英偉達(dá)股價當(dāng)天卻暴跌!          

股價下跌8.48%,創(chuàng)下一個月來最大單日跌幅,市值蒸發(fā)約2716億美元(約合1.98萬億元人民幣)。          

發(fā)生什么事了? 

一周前,DeepSeek發(fā)布公告,稱將迎來“開源周”。  

意思是未來一周每天發(fā)布一部分開源技術(shù),模仿起了OpenAI的騷操作。 

不過,和OpenAI擠牙膏不同的是,DeepSeek放出的每一個開源工具都是刺向英偉達(dá)的刺刀,刀刀見血。          

 

讓我們看看這個周,DeepSeek都開源了些啥。          

我盡量用大家都能看得懂的大白話描述。

首日:FlashMLA橫空出世,GPU算力調(diào)度迎來智能時代  

FlashMLA的發(fā)布猶如一顆重磅炸彈,直擊AI算力浪費的痛點。傳統(tǒng)GPU在處理自然語言等任務(wù)時,面對長短不一的數(shù)據(jù)序列往往"大材小用",造成算力浪費。FlashMLA則如同一位智能交通調(diào)度員,能夠根據(jù)序列長度動態(tài)調(diào)配計算資源,實現(xiàn)"精準(zhǔn)打擊"。這一創(chuàng)新不僅大幅提升GPU利用率,更被業(yè)界視為國產(chǎn)GPU性能突圍的關(guān)鍵一步。發(fā)布僅6小時,GitHub收藏量便突破5000次,其影響力可見一斑。

次日:DeepEP打通MoE模型任督二脈,通信效率飆升

MoE(混合專家模型)作為AI大模型的重要架構(gòu),其訓(xùn)練和推理效率高度依賴專家模型間的通信效率。DeepEP作為首個開源EP通信庫,為MoE模型量身打造了一條"數(shù)據(jù)高速公路"。它支持優(yōu)化的全對全通信模式,并原生支持FP8低精度運算調(diào)度,在降低計算資源消耗的同時,實現(xiàn)數(shù)據(jù)的高速傳輸。DeepEP的出現(xiàn),讓MoE模型的訓(xùn)練和推理效率邁上新臺階。

第三日:DeepGEMM劍指矩陣計算,F(xiàn)P8性能突破天際  

矩陣乘法是AI計算的基石,其性能優(yōu)化直接影響大模型的訓(xùn)練成本和效率。DeepGEMM憑借DeepSeek-V3的細(xì)粒度scaling技術(shù),僅用300行代碼便實現(xiàn)了高效的FP8通用矩陣乘法。在Hopper GPU上,其計算性能最高可達(dá)1350+ FP8 TFLOPS,媲美甚至超越專家調(diào)優(yōu)的庫。更令人驚嘆的是,DeepGEMM無需編譯,通過輕量級JIT模塊即可實現(xiàn)運行時編譯,極大降低了使用門檻。 

第四日:DualPipe+EPLB雙劍合璧,并行計算效率飆升30% 

并行計算是提升AI算力的重要手段,但傳統(tǒng)管道并行存在"氣泡"問題,造成資源浪費。DualPipe通過雙向管道并行算法,實現(xiàn)計算與通信階段的雙向重疊,將硬件資源利用率提升超30%。EPLB則針對MoE架構(gòu),通過冗余專家策略和啟發(fā)式分配算法,優(yōu)化GPU間的負(fù)載分布,減少GPU閑置現(xiàn)象。兩者相輔相成,為AI大模型訓(xùn)練注入強勁動力。 

第五日:3FS文件系統(tǒng)橫空出世,數(shù)據(jù)訪問速度再創(chuàng)新高

AI模型的訓(xùn)練和推理離不開海量數(shù)據(jù)的快速訪問。3FS文件系統(tǒng)專為現(xiàn)代SSD和RDMA網(wǎng)絡(luò)帶寬設(shè)計,能夠?qū)崿F(xiàn)高速數(shù)據(jù)訪問,顯著提升AI模型訓(xùn)練和推理的效率。它的出現(xiàn),為AI算力瓶頸的突破再添一把利器。

不難發(fā)現(xiàn),這五天發(fā)布的開源項目,幾乎每一個都最大限度的壓榨N卡的性能。

這也是為什么DeepSeek能用幾千張卡訓(xùn)練出的大模型,能和OpenAI幾萬張卡Grok幾十萬張卡的效果打的有來有回。 

要命的是,這些技術(shù)統(tǒng)統(tǒng)開源,人人可用。          

如此一來,大模型企業(yè)不需要這么多卡了。          

英偉達(dá)的高估邏輯發(fā)生了變化。   

DeepSeek的母公司是幻方量化,作為一家量化公司,你猜會不會提前做了操作?

       原文標(biāo)題 : 英偉達(dá)跌到,DeepSeek吃飽

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號