訂閱
糾錯
加入自媒體

字節(jié)跳動與科大訊飛:大模型之戰(zhàn)的AB面

文/陳鋒

編輯/子夜

走過近兩年的競速賽后,中國大模型賽道正加速迎來分化。

分化首先體現(xiàn)在大模型初創(chuàng)公司的路徑選擇上。2024年,一度吸引了更多公眾關(guān)注的“大模型六小虎”,開始走向不同的方向。

百川智能轉(zhuǎn)向了行業(yè)大模型;月之暗面和MiniMax的戰(zhàn)略優(yōu)先級是C端產(chǎn)品和應(yīng)用;零一萬物采取了“大廠+小虎”的合作范式,它將超大模型交給阿里訓(xùn)練,自己負(fù)責(zé)小參數(shù)、適中的行業(yè)模型;智譜AI和階躍星辰,則仍然聚焦AGI大模型。

從這個側(cè)面看中國大模型產(chǎn)業(yè),一個越來越清晰的事實是,“百模大戰(zhàn)”正加速退潮,從初創(chuàng)企業(yè)到大公司,幾乎所有的玩家都在思考:在大模型和AI的浪潮中,自己應(yīng)該承擔(dān)怎樣的角色,技術(shù)該如何更好落地、該聚焦國內(nèi)市場還是出海,以及如何創(chuàng)造出差異化價值。

而無論是To C還是To B,面向2025年,業(yè)界已經(jīng)達(dá)成了新的共識——接下來,大模型將繼續(xù)走出同質(zhì)化,進(jìn)入到既拼技術(shù)實力、也拼落地進(jìn)展、還拼商業(yè)化的階段。

基于2024年的市場表現(xiàn)來看,字節(jié)跳動和科大訊飛,是兩個值得重點討論的樣本。

字節(jié)跳動過去一年在C端表現(xiàn)搶眼,呈現(xiàn)出后來者居上的姿態(tài)。現(xiàn)在,全球范圍內(nèi),從月活規(guī)?,豆包App已經(jīng)成為僅次于OpenAI的ChatGPT的AI應(yīng)用。

另一邊,科大訊飛在To B賽道呈現(xiàn)出了領(lǐng)跑之姿。

第三方機構(gòu)智能超參數(shù)發(fā)布的《中國大模型中標(biāo)項目監(jiān)測報告(2024)》指出,2024年,在通用大模型廠商中標(biāo)排行榜中,科大訊飛以91個中標(biāo)項目、披露中標(biāo)金額84780.8萬元,排名第一,成為2024年度標(biāo)王——從披露的中標(biāo)金額來看,它是百度的兩倍、智譜AI的八倍。

圖片

圖源智能超參數(shù) 

在這背后,作為中國大模型產(chǎn)業(yè)如今分別在C端和B端的領(lǐng)頭羊,他們走過的路都不輕松,但都具備一定的啟示意義。

1、大模型的兩條賽道上,科大訊飛、字節(jié)跳動各自領(lǐng)跑

在大模型賽道上,字節(jié)跳動入局不算早,但發(fā)展速度很快。

據(jù)DataEye研究院不完全統(tǒng)計,2024年8月至今,字節(jié)跳動在AI領(lǐng)域一共推出了包括豆包大模型家族在內(nèi)的17款大模型、2個智能體開發(fā)平臺。

字節(jié)旗下更多的C端AI應(yīng)用也在加速推出。2024年以來,字節(jié)跳動在國內(nèi)外已經(jīng)推出了包括豆包在內(nèi)的20余款A(yù)pp,覆蓋了AI聊天助手、AI視頻工具、AI娛樂應(yīng)用、辦公等多個領(lǐng)域。

圖片

圖源浙商證券

這對應(yīng)的是,字節(jié)跳動沿用了過去“大力出奇跡”的戰(zhàn)略打法。浙商證券統(tǒng)計,2024年字節(jié)跳動在AI上的資本開支達(dá)到了800億元,甚至接近百度、阿里、騰訊的總和(約1000億元)。

市場研究機構(gòu)Omdia的研究也顯示,字節(jié)2024年采購了約23萬張英偉達(dá)芯片,成為僅次于微軟的英偉達(dá)全球第二大買家。

在更大力度的投入、更廣泛的布局下,字節(jié)跳動在這一年里迅速完成了在C端應(yīng)用上的趕超。

截至11月,豆包App的月活躍用戶數(shù)已經(jīng)接近6000萬,MAU增速達(dá)到了16.92%。

另一個視角里,在較難被普通用戶感知到的大模型To B市場,科大訊飛則穩(wěn)扎穩(wěn)打,積累起了領(lǐng)先優(yōu)勢。

與字節(jié)跳動的“后發(fā)先至”不同的是,大模型浪潮襲來以后,科大訊飛某種程度上屬于“先發(fā)先至”。

2022年底OpenAI發(fā)布ChatGPT以后,科大訊飛在大模型布局上快速跟進(jìn),并在接下來兩年時間里,快速確定了技術(shù)思路和技術(shù)路線,并完成了多輪技術(shù)迭代。

OpenAI發(fā)布ChatGPT僅僅半個月后,科大訊飛就已經(jīng)決定,要把資源壓上去做大模型,同時其還提出,做大模型要做“1+N”,“1”是指通用認(rèn)知智能大模型,“N”是指在教育、辦公、汽車、人機交互等各個領(lǐng)域落地。

當(dāng)時,科大迅飛快速拉通了核心研發(fā)平臺15個方向的團隊,專門成立了大模型專項組,內(nèi)部又分成四個項目組,分別專注于“算力和訓(xùn)練框架”“數(shù)據(jù)構(gòu)建”“推理框架和服務(wù)”“算法研發(fā)及大模型研制”,科大訊飛研究院院長胡國平后來回憶,“這么大規(guī)模的‘會戰(zhàn)’在訊飛研究院歷史上也是少有的。”

在那之后,科大訊飛的訊飛星火大模型加速迭代。

1月15日,科大訊飛正式發(fā)布了星火深度推理模型x1,同時首發(fā)了星火語音同傳大模型。此外,訊飛星火4.0Turbo的底座能力和行業(yè)能力也實現(xiàn)了再次升級。

圖片

稍早一些,科大訊飛發(fā)布了訊飛星火4.0 Turbo,七大核心能力全面超過了GPT-4 Turbo,數(shù)學(xué)和代碼能力超越了GPT-4o,國內(nèi)外中英文14項主流測試集中實現(xiàn)了9項第一。

從大模型的落地進(jìn)展來看,科大訊飛也走在了行業(yè)前列。

一方面,如我們上文所述,2024年,科大訊飛是通用大模型廠商中的“標(biāo)王”;

另一方面,同樣在2024年里,科大訊飛的星火大模型還斬獲了六項“第一”:央國企中標(biāo)第一、教育醫(yī)療市場第一、智能汽車市場第一、大模型開發(fā)者生態(tài)第一、智能硬件市場第一、賦能科研應(yīng)用第一。

由此不難發(fā)現(xiàn),經(jīng)過兩年的跑馬圈地后,在To C和To B這兩條路線上,行業(yè)格局已然明晰——字節(jié)跳動和科大訊飛,率先跑在了前列。

2、“中標(biāo)”背后,科大訊飛和字節(jié)跳動如何解題?

客觀來看,無論是字節(jié)跳動在大模型C端應(yīng)用上的“逆襲”式反超,還是科大訊飛在B端的落地探索,都不輕松。

對To C的大模型應(yīng)用而言,首先是推理成本高,緊接著廠商在考慮產(chǎn)品市場匹配度時,要考慮到技術(shù)需求、技術(shù)難度和成本等因素,還需要把握時間窗口,此外在探索商業(yè)化路徑時,相比國外,國內(nèi)用戶的付費意愿也相對較弱。

也就是說,想要做出一款好用的、用戶愛用的大模型應(yīng)用,意味著更高的投入成本,以及不確定的回報周期,這也是為什么,這兩年很多大模型創(chuàng)業(yè)公司都將視角轉(zhuǎn)向了海外。

如何持續(xù)吸引到新用戶,并提升用戶留存率,則是另一重挑戰(zhàn)。

從字節(jié)跳動在大模型領(lǐng)域的積極布局來看,它顯然希望自己能成為做出更多爆款應(yīng)用的先行者,潛在機會也更大。

一來,字節(jié)跳動不缺資金、不缺技術(shù)、不缺人才、也不缺投入的決心;

二來,字節(jié)跳動早些年在移動互聯(lián)網(wǎng)時代成功To C的經(jīng)驗,如今也成了它的差異化優(yōu)勢。比如比起競爭對手們,字節(jié)有更豐沛的流量能夠支撐應(yīng)用的快速起量。

最后,現(xiàn)在的字節(jié)對用戶需求也在變得更加敏銳,反應(yīng)速度也變得更加敏捷了。

12月11日,據(jù)媒體報道,字節(jié)提升了即夢的產(chǎn)品優(yōu)先級,嘗試用新的路徑打造AI時代的“抖音”——即夢AI隸屬于字節(jié)跳動旗下剪映業(yè)務(wù),定位是AI內(nèi)容平臺,支持通過自然語言及圖片輸入,生成高質(zhì)量圖像及視頻。

據(jù)悉,字節(jié)計劃后續(xù)把更多資源向更多模態(tài)的產(chǎn)品形態(tài)轉(zhuǎn)移,即夢會承擔(dān)更大的希望。

再來看B端。如今大模型的競爭已陸續(xù)進(jìn)化為體系之戰(zhàn)——要構(gòu)建起一個企業(yè)真正能用的大模型,需要具備構(gòu)建算力、數(shù)據(jù)治理、模型訓(xùn)練、場景落實、應(yīng)用搭建、持續(xù)運營、安全合規(guī)整套能力,還要會打造各種標(biāo)準(zhǔn)化軟件產(chǎn)品,比如數(shù)字人、客服助手、代碼助手等,以及場景落地中的軟硬結(jié)合產(chǎn)品。

簡單來說,大模型在B端的落地,難就難在“交付”,需要大模型廠商首先成為一個“六邊形戰(zhàn)士”。

從企業(yè)的視角來看,現(xiàn)階段大家對大模型的訴求也在變得更加務(wù)實,不僅關(guān)注模型技術(shù)的領(lǐng)先性,也要看如何融合到業(yè)務(wù)場景,如何降本增效解決實際問題。

圖片

圖源《2024 中國行業(yè)大模型市場報告》 

科大訊飛的解題路徑,為我們提供了一個透視大模型落地B端的觀察窗口。

“為什么我們中標(biāo)數(shù)量第一,而且中標(biāo)比例越來越高?因為很多企業(yè)只能做到第三步即訓(xùn)練模型,后面的幾步與我們差距很大,即使能做到,他們實際上整理數(shù)據(jù)和訓(xùn)練模型的能力,與我們差距也很大。”科大訊飛創(chuàng)始人劉慶峰此前如此表示。

這對應(yīng)的是,科大訊飛為企業(yè)大模型構(gòu)建提供了頂層規(guī)劃到執(zhí)行落地的全套解決方案:“建算力、理數(shù)據(jù)、訓(xùn)模型、落場景、保安全、精運營”。

在算力層面,2023年時,科大訊飛和華為聯(lián)合做了中國第一個萬卡算力集群“飛星一號”,在昇騰910B的基礎(chǔ)上,攻克了諸多疑難雜癥,解決了500多次基礎(chǔ)軟硬件問題、模型適配問題等,使得大模型訓(xùn)練從對標(biāo)A100/A800的20%-30%提升到了90%以上。

2024年10月,科大訊飛聯(lián)合華為、合肥市大數(shù)據(jù)資產(chǎn)運營有限公司打造的國產(chǎn)超大規(guī)模智算平臺“飛星二號”,也正式啟動,將帶來新模型新算法的持續(xù)適配,以及智算集群規(guī)模的再次躍遷。

剛剛發(fā)布的深度推理模型X1,正是基于“飛星一號”打造了完全適配華為昇騰算力的深度推理模型訓(xùn)練框架,突破了樹搜索加速、異步推理調(diào)度等技術(shù)難題,用更少算力實現(xiàn)了業(yè)界一流效果,多項指標(biāo)國內(nèi)第一,是國產(chǎn)算力集群對標(biāo)英偉達(dá)集群的又一關(guān)鍵里程碑。

在“理數(shù)據(jù)、訓(xùn)模型”層面,科大訊飛完整的工具鏈也大幅提升了效率——數(shù)據(jù)清洗效率提升了24倍、數(shù)據(jù)構(gòu)建效率提升了90%、場景優(yōu)化的平均效果提升了30%、知識采編效率提升了5倍。

再到更關(guān)鍵的行業(yè)場景落地中,截至2024年10月,科大訊飛已經(jīng)與各頭部企業(yè)共建了20多個行業(yè)大模型,覆蓋了超300個應(yīng)用場景。

劉慶峰還提到,這些已經(jīng)落地的實際應(yīng)用案例,已經(jīng)形成相互借鑒和復(fù)用的規(guī)模效應(yīng),“每個企業(yè)搭建后,我們都會找到很多可復(fù)用的給其他企業(yè)。很多央國企頭部企業(yè)在這個行業(yè)做完后,可推廣給全行業(yè),也可以在不同行業(yè)相互借鑒。”

由此可以預(yù)見,訊飛星火大模型在B端的落地,某種程度上像是星星之火,從長遠(yuǎn)視角來看,或?qū)榭拼笥嶏w帶來更充足的想象空間。

3、商業(yè)化大考在即,領(lǐng)跑者加速邁向“正向循環(huán)”

大模型競速賽走到現(xiàn)在,另一個越來越清晰的事實是,淘汰賽已然陸續(xù)上演。

這一背景下,無論是To C市場還是To B市場,在日益白熱化的市場競爭中,領(lǐng)先者持續(xù)維持競爭優(yōu)勢、追趕者抹平分差奮起直追的路徑,基本只有一條:

保持在技術(shù)側(cè)的敏銳度,在迭代和升級速度上打“持久戰(zhàn)”,做好大模型技術(shù)與應(yīng)用、場景的融合。

這也正是科大訊飛和字節(jié)跳動正在做的事情。

前段時間的科大訊飛全球1024開發(fā)者節(jié)期間,除了發(fā)布訊飛星火4.0 Turbo外,科大訊飛還首發(fā)了10項基于訊飛星火底座能力的產(chǎn)品與創(chuàng)新應(yīng)用:

包括定義了多模AIUI標(biāo)準(zhǔn),發(fā)布超擬人數(shù)字人,發(fā)布星火多語言大模型、訊飛星火醫(yī)學(xué)影像大模型、汽車端側(cè)星火大模型,等等。

再到1月15日,科大訊飛又迎來了多項新的技術(shù)升級。

它發(fā)布了星火深度推理模型X1,是當(dāng)前業(yè)界全國產(chǎn)算力平臺上唯一的深度推理模型。此前X1參加了小初高(含競賽)、大學(xué)(含競賽)、AIME、MATH500多多項考試,交出了亮眼的成績單:用更少的算力,達(dá)到業(yè)界一流效果,多項指標(biāo)國內(nèi)第一。

此外,科大訊飛也發(fā)布了國內(nèi)首個具有端到端語音同傳能力的大模型——星火語音同傳大模型。

星火語音同傳大模型支持不同時延的翻譯模式,在長達(dá)5H的音視頻測試中,8s時延模式在內(nèi)容完整度、信息準(zhǔn)確度等評價維度超過了谷歌的Gemini2.0、OpenAI的GPT-4o等國外主流大模型。

基于不同行業(yè)龍頭企業(yè)的落地訴求、C端2億多用戶的真實反饋,訊飛星火4.0 Turbo也進(jìn)行了新一輪升級,在七大核心能力上實現(xiàn)了全面提升。

圖片

其中,訊飛星火4.0 Turbo升級版的文本生成能力提升了3.2%、語言理解能力提升了4.5%、知識問答能力提升了4.7%、邏輯推理能力提升了2.6%、數(shù)學(xué)能力提升了10.5%、代碼能力提升了3.5%、多模態(tài)能力提升了1.6%。

此外,在長文本能力和圖文能力上,訊飛星火也進(jìn)行了升級,還首發(fā)了混域知識搜索技術(shù)——無論個人知識、企業(yè)知識、業(yè)務(wù)系統(tǒng)數(shù)據(jù)、精品行業(yè)數(shù)據(jù),還是互聯(lián)網(wǎng)信息,一次提問,可以拿到綜合搜索后的結(jié)果,信息搜索的效率實現(xiàn)了極大提升。

可以看到,基于底座能力的持續(xù)升級,科大訊飛在B端不同行業(yè)不同場景的落地廣度還在拓寬,深度還在延展,價值也在持續(xù)釋放。

在醫(yī)療行業(yè),基于訊飛星火醫(yī)學(xué)影像大模型打造的智能醫(yī)學(xué)影像助手,在智能質(zhì)控環(huán)節(jié)能幫助影像技師快速評估圖像質(zhì)量,及時糾正問題;在智能診斷環(huán)節(jié),能幫助影像醫(yī)師快速生成診斷報告;在智能讀片環(huán)節(jié),也能通過相關(guān)問答,幫助臨床醫(yī)師制定診療方案。

在司法場景里,法律大模型能賦能庭審筆錄制作、裁判文書編寫、法條類案檢索等司法場景,和星火通用大模型相比,效率提升從61.7%提升到了87.9%。

這一過程中,科大訊飛對大模型落地路徑的長遠(yuǎn)規(guī)劃,也想得更清楚了。

比如在讓大模型的能力更好落地上,劉慶峰此前表示,“今天是一個通用模型和專用模型相結(jié)合、端側(cè)模型和云端模型相結(jié)合、軟件和硬件相結(jié)合的、全新的大模型落地時代。”

比如它不僅僅是希望自己能夠成為大模型浪潮中走得走快的一家,也希望幫助更多企業(yè)走的更快。首個同傳大模型助力中國企業(yè)出海,就是一個鮮明的例子。

字節(jié)跳動當(dāng)下正加速構(gòu)建的,某種程度上也是這樣一條“正向循環(huán)”的未來路徑——

通過更大規(guī)模、更大決心的投入,推動大模型技術(shù)的快速迭代與升級,進(jìn)而賦能到C端用戶、B端客戶,哪怕C端用戶的回報周期相對較長,但用耐心換取未來,再用商業(yè)化反哺技術(shù)投入。

而在技術(shù)這一基石之上,字節(jié)跳動做C端應(yīng)用的邏輯,與科大訊飛深入B端的邏輯,本質(zhì)上是相似的——科大訊飛在努力離客戶更近、字節(jié)跳動在努力離用戶更近。

這種做產(chǎn)品和服務(wù)的姿態(tài),是字節(jié)跳動幾乎只用半年時間就后來居上的根源,也是科大訊飛“領(lǐng)先一步,超前一路”的根源。

(本文頭圖來源于字節(jié)跳動官網(wǎng)、科大訊飛官方微博。) 

       原文標(biāo)題 : 字節(jié)跳動與科大訊飛:大模型之戰(zhàn)的AB面

聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

發(fā)表評論

0條評論,0人參與

請輸入評論內(nèi)容...

請輸入評論/評論長度6~500個字

您提交的評論過于頻繁,請輸入驗證碼繼續(xù)

暫無評論

暫無評論

    掃碼關(guān)注公眾號
    OFweek人工智能網(wǎng)
    獲取更多精彩內(nèi)容
    文章糾錯
    x
    *文字標(biāo)題:
    *糾錯內(nèi)容:
    聯(lián)系郵箱:
    *驗 證 碼:

    粵公網(wǎng)安備 44030502002758號