馬斯克不學(xué)Deepseek,他再次證明,AI還是要堆GPU芯片
眾所周知,在春節(jié)前,杭州的Deepseek橫空出世,讓整個華爾街都崩了,投資人是寢食難安。
因為DeepSeek(深度求索)發(fā)布的一款開源AI模型,多項指標(biāo)都比OpenAI的產(chǎn)品更強,但研發(fā)成本不到600萬美元,相比之下,OpenAI的研發(fā)成本,是幾十億美元。
所以Deepseek爆火之后,整個華爾街都擔(dān)憂,之前各大公司都要用數(shù)十億美元買顯卡,這種構(gòu)建大型AI模型的做法,是不是錯誤的,靠算力來堆,是不是一個謊言?
于是,緊接著美股科技巨頭股價集體下跌,英偉達(dá)一夜跌了17%,一夜之間就跌沒了4萬多億元,另外博通、AMD、微軟、臺積電等都是爆跌,大家認(rèn)為之前的AI估值邏輯,可能出了問題。
這些AI芯片,可能并沒有想象中的值錢了,甚至整個AI領(lǐng)域的衍生品,比如電力供應(yīng)商等,都受到了大影響。
很多人以為,接下來整個AI領(lǐng)域的創(chuàng)新,會圍繞著Deepseek的模式進(jìn)行,那就是低成本,高效率。
但是,馬斯克明顯就不學(xué)Deepseek,他反而再次向大家證明,AI還是要堆芯片。
馬斯克旗下的xAI公司,發(fā)布了新的大模型Grok 3,這個大模型Grok 3不管是LMSYS盲測,還是AIME競賽,都是領(lǐng)先于友商,馬斯克稱其是全球最聰明的AI。
這個Grok3,最大的特點就是堆了20萬張H100顯卡的算力,主打一個“大力出奇跡”。
而Grok3的成功,其實也向大家證明規(guī)模定律(Scaling Law)仍然有效。只要顯卡堆的多,那么確實會給大模型帶來更強的能力,如果有錢,有顯卡,就沒必要“沒苦硬吃”,直接土豪一點,堆算力就行了。
所以,雖然有了Deepseek,但我們還是要清楚的認(rèn)識到,對芯片、數(shù)據(jù)中心和云基礎(chǔ)設(shè)施持續(xù)投入才是硬道理,沒算力時可以去“四兩撥千斤”,但算力依然還是基礎(chǔ),馬虎不得。
原文標(biāo)題 : 馬斯克不學(xué)Deepseek,他再次證明,AI還是要堆GPU芯片

請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達(dá)AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產(chǎn)業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀(jì)”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產(chǎn)智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關(guān)稅,能否乘機器人東風(fēng)翻身?