訂閱
糾錯
加入自媒體

2024年,生成式AI的“炒作”要結束了?

2023-10-18 10:07
適道
關注

“用ChatGPT-4寫一封電子郵件,就好比讓蘭博基尼送披薩。 ”這句話聽上去 有點夸 張,卻一語道破了當前生成式AI在應用層上遇到的巨大難題: 成本過高,尤其是在AI產品和市場契合度(PMF)不那么高的情況下。

近期,分析公司CCS Insight發(fā)布預測報告稱: 生成式人工智能領域將在明年接受現(xiàn)實的檢驗,具體表現(xiàn)在: 技術炒作逐漸消退,運行成本不斷上升,監(jiān)管呼聲越來越多。 種種跡象表明:生成式AI的增長即將放緩。

就在報告發(fā)布的前一天,華爾街日報的一篇文章《Big Tech Struggles to Turn AI Hype Into Profits》(Tom Dotan & Deepa Seetharaman)在副標題中指出, 包括微軟、谷歌在內的一些公司,正在努力嘗試各種策略,只為讓AI產品真正能賺到錢。

適道對這篇文章進行了編譯和補充,結合CCS Insight的報告,試著梳理出生成式AI面臨的困境,并給出相應的判斷,以下是正文。 

1 每月倒貼3000萬美元,150萬用戶致成本失控

GitHub Copilot是微軟基于ChatGPT推出的一款AI編程產品,被程序員們稱為“開發(fā)者神器”,目前用戶超過150萬人。如果按照互聯(lián)網(wǎng)時代的商業(yè)邏輯,GitHub Copilot以10美元/月的會員費,早就能賺到盆滿缽滿。但據(jù)文章作者所言,這款爆火的AI應用讓微軟虧到吐血。

今年的前幾個月,GitHub Copilot平均每月要給每個用戶倒貼20美元,給有些用戶最多能倒貼80美元。算下來,自從推出GitHub Copilot,微軟一個月就能虧3000萬美元,如果情況不變,一年下來虧損直接過億。不知道的以為微軟轉行做慈善了。

生成式AI “冤種”聯(lián)盟的成員還有谷歌、亞馬遜、Adobe、Zoom等。

為了避免血虧,Adobe公司直接對用戶的每月使用量設置了上限。谷歌除了收取每月6美元起的常規(guī)會員費,將對一款AI助手的用戶收取30美元/月的額外費用;微軟則是在13美元/月的基礎費用之上,對AI版Microsoft 365的用戶多收30美元/月。另外,知情人透露,這兩家巨頭還會“偷梁換柱”,采用更便宜的小模型。

繁榮之下,為什么生成式AI會還能虧錢呢?

最主要的問題是成本失控。

首先,買硬件需要錢。AI算力芯片是大模型的發(fā)動機,早期微軟向OpenAI投資的150多億美元,大多數(shù)都用在了搭建AI超級計算機和購買AI芯片的硬件支出上。據(jù)悉GPT-4模型需要超過3萬枚A100芯片。不然怎么說英偉達是當前AI時代當之無愧的最大贏家,也難怪MAAMA都開始卷起了芯片。

其次,大模型越聰明的代價是所需的算力越多。作者指出:企業(yè)要花費數(shù)年時間和數(shù)億美元,才能訓練出一個成熟的AI產品。a16z曾發(fā)布報告稱,單次GPT-3訓練的成本在50萬美元到460萬美元之間。就連電費都是一筆天文數(shù)字,據(jù)估算,2023年1月平均每天約有1300萬獨立訪客使用ChatGPT,對應芯片需求為3萬多片英偉達A100 GPU,每日電費在5萬美元左右。

最重要的是,AI應用不具備互聯(lián)網(wǎng)應用的規(guī)模經(jīng)濟。算力有成本,每計算一次要多花一次的錢。SemiAnalysis首席分析師Dylan Patel統(tǒng)計,OpenAI光是運行ChatGPT,每天投入的成本就可能高達70萬美元。這導致使用AI產品的用戶越多,或用戶的使用次數(shù)越多,提供服務的企業(yè)就要支付更高的成本費用。如果只向用戶收取一筆固定的月費,那么企業(yè)就會面臨潛在的成本損失,正如微軟在GitHub Copilot遭遇的血虧。

2 用戶找不到為生成式AI付費的理由

當然,錢是賺來的,不是省來的。畢竟, “日虧70萬美元”的吞金獸OpenAI,如今也能估值高達900億美元。近期,The Information還爆出,OpenAI預計在未來一年內,通過銷售AI軟件及其計算能力,獲得超過10億美元的收入。

但OpenAI在商業(yè)模式上的巨大成功并不具備普遍性。就目前來看,不少生成式AI產品的吸金能力顯然有限。

Insight的杰出工程師Carm Taglienti指出:人工智能項目失敗的原因99%與客戶過高的期望值有關。但這句話也揭示了一點:現(xiàn)在的人工智能沒有聰明到能解決用戶希望解決的問題。

而根據(jù)紅杉資本的判斷,當前AI市場已經(jīng)從“第一幕”——從技術出發(fā),進入了 “第二幕”——從客戶開始。這個階段要求生成式AI必須具備解決人類問題的能力。也就是說,當人們對新興技術的熱情退散時,他們會思考自己到底需要何種AI服務,并質疑自己為什么要為AI付費?

這正如文章中Amazon Web Services的首席執(zhí)行官Adam Selipsky所指出的:目前,許多用戶開始對運行AI模型的高昂費用感到不滿。

事實上,紅杉資本的報告《Generative AI’s Act Two》也顯示,無論是首月用戶留存率,還是目前用戶的日常使用情況,以大模型為代表的生成式AI使用情況都不容樂觀。相比普通產品最高85%的留存和日/月活,用戶體驗過ChatGPT后還愿意繼續(xù)用比例為56%,每天打開的比例僅為14%。

這或許意味著,至少很多用戶還沒找到自己必須使用生成式AI產品的理由。

從to B的層面來講,大模型也不是萬金油。你所構建的AI產品必須與你試圖解決的任務強相關。甚至OpenAI的首席技術官 Mira Murati也指出:企業(yè)用戶并不是總需要最強大的模型,有時候他們只需要適合其特定用例且更經(jīng)濟實惠的模型。

而從解決問題的角度看,目前通用大模型存在使用成本高、推理延遲較大,數(shù)據(jù)泄漏、專業(yè)任務上不夠準確等問題。與之相比,一些更小型、專業(yè)化的長尾模型具有更準確、更便宜、更快速的優(yōu)點,剛好能夠滿足客戶企業(yè)的需求。

總而言之,早期初創(chuàng)公司投資人在去年砸進了22億美元資金,如果AI的實際應用確實達不到預期效果,隨之而來的失望將導致投資縮減。

為企業(yè)打造生成式AI工具的公司W(wǎng)riter的首席執(zhí)行官梅·哈比卜(May Habib)說,估值不斷上升反映了人們對AI前景的熱情,不過高管們很快就會更仔細地關注成本問題。他認為,明年投資者對于生成式AI就不會如此趨之若鶩了。

3 生成式AI最大的問題是向用戶證明其價值

高昂的開發(fā)成本,再加上難以盈利的應用,反正不會讓投資人高興,可能只有英偉達和一些云服務提供商開心。

但情況真就如此糟糕嗎?也不一定。文章指出:預計隨著時間的推移,生成式AI會變得更便宜,就像云存儲和3D動畫等許多技術一樣。同時,新芯片和其他創(chuàng)新可能也會降低處理成本。

可是即便事實如CCS Insight所預測的:2024年生成式AI的增長即將放緩,但從長遠來看,生成式AI也一定會增長。正如Amara定律:我們傾向于在短期內高估一項技術的效果,在長期內低估其效果的現(xiàn)象。

這讓人想到互聯(lián)網(wǎng)發(fā)展初期的1998年,一位著名經(jīng)濟學家宣稱:到2005年,一切將變得清晰,互聯(lián)網(wǎng)對經(jīng)濟的影響不會超過傳真機。”

或許,生成式AI目前只是處在“尷尬的青春期”,它最大的問題不是尋找使用案例、需求或分發(fā),而是證明其在解決用戶問題上產生的真正價值。正如福特汽車公司創(chuàng)始人的經(jīng)典名言:如果我問客戶他們想要什么,他們的回答一定是一輛更快的馬”。無論如何,技術一定要走在市場前面,因為消費者看不到那么遠。

本文來自微信公眾號“適道”(ID:survivalbiz),作者:適道。

       原文標題 : 2024年,生成式AI的“炒作”要結束了?

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內容
    文章糾錯
    x
    *文字標題:
    *糾錯內容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號