2024年,生成式AI的“炒作”要結束了?
“用ChatGPT-4寫一封電子郵件,就好比讓蘭博基尼送披薩。 ”這句話聽上去 有點夸 張,卻一語道破了當前生成式AI在應用層上遇到的巨大難題: 成本過高,尤其是在AI產品和市場契合度(PMF)不那么高的情況下。
近期,分析公司CCS Insight發(fā)布預測報告稱: 生成式人工智能領域將在明年接受現(xiàn)實的檢驗,具體表現(xiàn)在: 技術炒作逐漸消退,運行成本不斷上升,監(jiān)管呼聲越來越多。 種種跡象表明:生成式AI的增長即將放緩。
就在報告發(fā)布的前一天,華爾街日報的一篇文章《Big Tech Struggles to Turn AI Hype Into Profits》(Tom Dotan & Deepa Seetharaman)在副標題中指出, 包括微軟、谷歌在內的一些公司,正在努力嘗試各種策略,只為讓AI產品真正能賺到錢。
適道對這篇文章進行了編譯和補充,結合CCS Insight的報告,試著梳理出生成式AI面臨的困境,并給出相應的判斷,以下是正文。
1 每月倒貼3000萬美元,150萬用戶致成本失控
GitHub Copilot是微軟基于ChatGPT推出的一款AI編程產品,被程序員們稱為“開發(fā)者神器”,目前用戶超過150萬人。如果按照互聯(lián)網(wǎng)時代的商業(yè)邏輯,GitHub Copilot以10美元/月的會員費,早就能賺到盆滿缽滿。但據(jù)文章作者所言,這款爆火的AI應用讓微軟虧到吐血。
今年的前幾個月,GitHub Copilot平均每月要給每個用戶倒貼20美元,給有些用戶最多能倒貼80美元。算下來,自從推出GitHub Copilot,微軟一個月就能虧3000萬美元,如果情況不變,一年下來虧損直接過億。不知道的以為微軟轉行做慈善了。
生成式AI “冤種”聯(lián)盟的成員還有谷歌、亞馬遜、Adobe、Zoom等。
為了避免血虧,Adobe公司直接對用戶的每月使用量設置了上限。谷歌除了收取每月6美元起的常規(guī)會員費,將對一款AI助手的用戶收取30美元/月的額外費用;微軟則是在13美元/月的基礎費用之上,對AI版Microsoft 365的用戶多收30美元/月。另外,知情人透露,這兩家巨頭還會“偷梁換柱”,采用更便宜的小模型。
繁榮之下,為什么生成式AI會還能虧錢呢?
最主要的問題是成本失控。
首先,買硬件需要錢。AI算力芯片是大模型的發(fā)動機,早期微軟向OpenAI投資的150多億美元,大多數(shù)都用在了搭建AI超級計算機和購買AI芯片的硬件支出上。據(jù)悉GPT-4模型需要超過3萬枚A100芯片。不然怎么說英偉達是當前AI時代當之無愧的最大贏家,也難怪MAAMA都開始卷起了芯片。
其次,大模型越聰明的代價是所需的算力越多。作者指出:企業(yè)要花費數(shù)年時間和數(shù)億美元,才能訓練出一個成熟的AI產品。a16z曾發(fā)布報告稱,單次GPT-3訓練的成本在50萬美元到460萬美元之間。就連電費都是一筆天文數(shù)字,據(jù)估算,2023年1月平均每天約有1300萬獨立訪客使用ChatGPT,對應芯片需求為3萬多片英偉達A100 GPU,每日電費在5萬美元左右。
最重要的是,AI應用不具備互聯(lián)網(wǎng)應用的規(guī)模經(jīng)濟。算力有成本,每計算一次要多花一次的錢。SemiAnalysis首席分析師Dylan Patel統(tǒng)計,OpenAI光是運行ChatGPT,每天投入的成本就可能高達70萬美元。這導致使用AI產品的用戶越多,或用戶的使用次數(shù)越多,提供服務的企業(yè)就要支付更高的成本費用。如果只向用戶收取一筆固定的月費,那么企業(yè)就會面臨潛在的成本損失,正如微軟在GitHub Copilot遭遇的血虧。
2 用戶找不到為生成式AI付費的理由
當然,錢是賺來的,不是省來的。畢竟, “日虧70萬美元”的吞金獸OpenAI,如今也能估值高達900億美元。近期,The Information還爆出,OpenAI預計在未來一年內,通過銷售AI軟件及其計算能力,獲得超過10億美元的收入。
但OpenAI在商業(yè)模式上的巨大成功并不具備普遍性。就目前來看,不少生成式AI產品的吸金能力顯然有限。
Insight的杰出工程師Carm Taglienti指出:人工智能項目失敗的原因99%與客戶過高的期望值有關。但這句話也揭示了一點:現(xiàn)在的人工智能沒有聰明到能解決用戶希望解決的問題。
而根據(jù)紅杉資本的判斷,當前AI市場已經(jīng)從“第一幕”——從技術出發(fā),進入了 “第二幕”——從客戶開始。這個階段要求生成式AI必須具備解決人類問題的能力。也就是說,當人們對新興技術的熱情退散時,他們會思考自己到底需要何種AI服務,并質疑自己為什么要為AI付費?
這正如文章中Amazon Web Services的首席執(zhí)行官Adam Selipsky所指出的:目前,許多用戶開始對運行AI模型的高昂費用感到不滿。
事實上,紅杉資本的報告《Generative AI’s Act Two》也顯示,無論是首月用戶留存率,還是目前用戶的日常使用情況,以大模型為代表的生成式AI使用情況都不容樂觀。相比普通產品最高85%的留存和日/月活,用戶體驗過ChatGPT后還愿意繼續(xù)用比例為56%,每天打開的比例僅為14%。
這或許意味著,至少很多用戶還沒找到自己必須使用生成式AI產品的理由。
從to B的層面來講,大模型也不是萬金油。你所構建的AI產品必須與你試圖解決的任務強相關。甚至OpenAI的首席技術官 Mira Murati也指出:企業(yè)用戶并不是總需要最強大的模型,有時候他們只需要適合其特定用例且更經(jīng)濟實惠的模型。
而從解決問題的角度看,目前通用大模型存在使用成本高、推理延遲較大,數(shù)據(jù)泄漏、專業(yè)任務上不夠準確等問題。與之相比,一些更小型、專業(yè)化的長尾模型具有更準確、更便宜、更快速的優(yōu)點,剛好能夠滿足客戶企業(yè)的需求。
總而言之,早期初創(chuàng)公司投資人在去年砸進了22億美元資金,如果AI的實際應用確實達不到預期效果,隨之而來的失望將導致投資縮減。
為企業(yè)打造生成式AI工具的公司W(wǎng)riter的首席執(zhí)行官梅·哈比卜(May Habib)說,估值不斷上升反映了人們對AI前景的熱情,不過高管們很快就會更仔細地關注成本問題。他認為,明年投資者對于生成式AI就不會如此趨之若鶩了。
3 生成式AI最大的問題是向用戶證明其價值
高昂的開發(fā)成本,再加上難以盈利的應用,反正不會讓投資人高興,可能只有英偉達和一些云服務提供商開心。
但情況真就如此糟糕嗎?也不一定。文章指出:預計隨著時間的推移,生成式AI會變得更便宜,就像云存儲和3D動畫等許多技術一樣。同時,新芯片和其他創(chuàng)新可能也會降低處理成本。
可是即便事實如CCS Insight所預測的:2024年生成式AI的增長即將放緩,但從長遠來看,生成式AI也一定會增長。正如Amara定律:我們傾向于在短期內高估一項技術的效果,在長期內低估其效果的現(xiàn)象。
這讓人想到互聯(lián)網(wǎng)發(fā)展初期的1998年,一位著名經(jīng)濟學家宣稱:到2005年,一切將變得清晰,互聯(lián)網(wǎng)對經(jīng)濟的影響不會超過傳真機。”
或許,生成式AI目前只是處在“尷尬的青春期”,它最大的問題不是尋找使用案例、需求或分發(fā),而是證明其在解決用戶問題上產生的真正價值。正如福特汽車公司創(chuàng)始人的經(jīng)典名言:如果我問客戶他們想要什么,他們的回答一定是一輛更快的馬”。無論如何,技術一定要走在市場前面,因為消費者看不到那么遠。
本文來自微信公眾號“適道”(ID:survivalbiz),作者:適道。
原文標題 : 2024年,生成式AI的“炒作”要結束了?

請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數(shù)智主辦酒仙橋論壇,探索AI產業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關稅,能否乘機器人東風翻身?