GPT-5前菜!OpenAI最強模型o3上手:到底強在哪?
最近 OpenAI 的活確實有點多。在 3 月底推出 GPT-4o 原生圖像生成再度火遍全球后,北京時間 4 月 15 日凌晨,OpenAI 又推出了全新 GPT-4.1 系列模型,替代舊款的 GPT-4 模型。
而就在今天(4 月 17 日)凌晨,OpenAI 如約繼續(xù)推出了兩款全新的 o 系列推理模型——o3、o4-mini,替代此前的 o1 和 o3-mini。更重要的是,o3、o4-mini 不僅擁有了更強大的推理能力,支持將圖像直接納入「思考過程」,還是首次能夠獨立使用全部 ChatGPT 工具的推理模型,被官方稱為:
「我們(OpenAI)迄今為止發(fā)布的最智能的模型,代表了 ChatGPT 能力的一次飛躍!
飛不飛躍我們先按下不談,但有一點實在讓人在意。OpenAI CEO 山姆·奧爾特曼(Sam Altman)今年 2 月就在 X 平臺公開披露內部的模型路線圖,指出 GPT-4.5(Orion)將是「OpenAI 最后一個非推理(思維鏈)模型」,還說之后的 GPT-5 將整合 GPT 系列和 o 系列模型:
「不再將 o3 作為獨立模型推出。」
圖/ X
但現在來看,山姆·奧爾特曼當時的承諾似乎一個都沒有兌現,OpenAI 不僅發(fā)布了新的 GPT-4.1 系列非推理模型,還獨立推出了 o3 推理模型。那還有一直活在傳聞的 GPT-5,我們真的能在今年夏天看到嗎?
OpenAI 又發(fā)一波模型,o3是最特別的一個
GPT-4.1 系列、o3、o4-mini 發(fā)布之前,關于 OpenAI 太多模型的吐槽其實就已經甚囂塵上,不僅是普通 ChatGPT 用戶,也包括很多開發(fā)者,也認為 OpenAI 的模型陣容讓人「選擇困難」。
好在,雖然過去兩天 OpenAI 又連發(fā)了好幾個新模型,但至少也同步砍掉了一些「舊模型」。在 GPT-4.1 正式推出后,OpenAI 就預告將于 4 月 30 日在 ChatGPT 全面下線 GPT-4 模型,同時還將在 API 中(面向開發(fā)者)棄用 GPT-4.5 預覽版。
作為通用基座模型,GPT-4.1 實際分為了旗艦版、mini 版、nano 版,支持高達百萬級 tokens 上下文,在性能、成本和速度上全面優(yōu)于目前最主力的 GPT-4o 系列模型,但目前僅面向開發(fā)者上線 API。
但如果說 GPT-4.1 代表了 OpenAI 的現在,o3 和 o4-mini,可能就代表了 OpenAI 的未來。作為 OpenAI 探索推理模型技術路線的最新成果,o3 和 o4-mini 率先在推理鏈(chain-of-thought)中真正納入圖像理解能力。
圖/ OpenAI
簡單來說,它不僅能識別信息,還能把這些視覺輸入納入思維過程,成為完整邏輯鏈的一部分。不同于 GPT-4o 這類多模態(tài)模型,GPT-4o 雖然能「看圖」,但更多是為了給出自然語言響應,而 o3、o4-mini 的圖像處理是為了解決問題——它是推理的一環(huán)。
與此同時,作為官方認證的最強模型——o3,還是第一個調用 ChatGPT 全部工具的推理模型,包括搜索網絡、Python、圖像生成、代碼解釋器、文件讀取等。并且在與 o1 相同的延遲和成本下,o3 在 ChatGPT 中實現了更高的性能。
但實際表現如何,還是上手體驗才有結果。
OpenAI「最強推理模型」上手:名副其實
對于推理模型而言,推理能力自然是重中之重,先來一道倫理推理題,非?简災P偷耐评砟芰,我們也對比了 DeepSeek-R1 以及 Gemini-2.5-Pro 兩大頂尖模型。
但在揭曉回答之前,o3 最驚艷的就是思考過程推導的嚴謹和流暢,相比之下,DeepSeek-R1 的思考過程就顯得相當冗長和重復,思考非常久,最終的回答卻很難令人滿意。
圖/雷科技
在 DeepSeek-R1 的回答中,實際只回答了「憤怒的原因」,而沒有回答出「崩潰的原因」。在 Gemini-2.5-Pro 的回答中,雖然更進一步推理出了「女兒撒謊」這個因素,但也很難導致「父親崩潰」。
圖/雷科技
o3 則相當完美地抓出「色盲」的關鍵判斷,進一步根據生物遺傳知識推導出最終的解釋。這里還要一提的是,其實 DeepSeek-R1 在思考過程中也提到了「色盲」這個點,但并沒有認為有效的推導。
此外,o3 以及 o4-mini 的一大突破在于將視覺能力納入思維鏈之中,相比之前阿里推出的視覺推理模型 QVQ-Max 更進了一步。
你可以上傳一張機場照片,它會識別出航站樓建筑、乘客流線和標識系統(tǒng),再結合你的問題完成空間動線的規(guī)劃或問題診斷。這種「圖像不是輸入素材,而是參與推理的變量」的設計,也是過去 o 系列推理模型所不具備的。
更重要的是,它可以根據圖像實時思考分析策略。
比如最近 AI 行業(yè)非常關鍵的一件事,就是支付寶在前幾天聯(lián)合魔搭社區(qū)剛剛上線了支付 MCP Server 讓 AI 智能體打通了「變現」的支付環(huán)節(jié)。我就拿一段演示視頻發(fā)送給 o3,詢問「視頻里展示技術的關鍵之處」,甚至沒有告訴它任何背景信息。
圖/雷科技
而在實際測試中,o3 會提取不同時間的關鍵幀理解視頻,再結合自身分析推理和聯(lián)網能力,明確定位到了支付寶「支付 MCPServer」的,并且結合信息分析了支付寶「支付 MCPServer」的關鍵意義。
不僅如此,在一段關于短視頻優(yōu)化的測試中,o3 被要求分析后臺數據并結合視頻分鏡做優(yōu)化策略,輸出的內容不僅覆蓋「3 秒留人、節(jié)奏剪輯、文案鉤子」等核心策略,還匹配了具體視覺節(jié)奏建議。
圖/雷科技
這點來看,o3 很像一個有一定審美和經驗的「專業(yè)創(chuàng)作者助手」,能針對實際的視頻內容,而不是「簡單套模板」的自動化建議。
而從這些測試也能看出,o3 懂得什么時候該分析、什么時候該搜索、什么時候該調用工具、什么時候該總結。而這種「主動思維+執(zhí)行鏈條」,正是當下大模型集體演進的一個重要方向。
所以,它真的是 OpenAI 迄今為止最智能的模型嗎?從目前的體驗來看,確實稱得上名副其實,甚至在不同推理模型的對比也是表現最強的。
寫在最后
用完 o3 最大的感受,你會覺得它在真正理解任務——而不只是理解你的意圖。在思考過程中能夠明顯看到這一點,同時還有 o3 在視覺理解、工具調用以及強大的推理能力。
也正因為如此,用完 o3 后,那些關于 GPT-5 的想象也變得更具體了。
山姆·奧爾特曼明確說過,GPT-5 會整合 GPT 系列與 o 系列,而按照最新透露出的消息,GPT-5 的推出時間基本鎖定在今年夏天。按照時間來看,GPT-4.1/GPT-4.5 和 o3/o4-mini 很可能就是最后一代「獨立」模型,也是被「整合」的主力。
如果兩者真的融合,那會不會是一個既能讀百萬 tokens,又能跨模態(tài)行動,還能自主調度工具進行思維鏈的大一統(tǒng)模型?無論如何,這確實是未來幾個月 AI 行業(yè)最值得期待的懸念之一。
來源:雷科技
原文標題 : GPT-5前菜!OpenAI最強模型o3上手:到底強在哪?

請輸入評論內容...
請輸入評論/評論長度6~500個字
最新活動更多
推薦專題
- 1 UALink規(guī)范發(fā)布:挑戰(zhàn)英偉達AI統(tǒng)治的開始
- 2 北電數智主辦酒仙橋論壇,探索AI產業(yè)發(fā)展新路徑
- 3 降薪、加班、裁員三重暴擊,“AI四小龍”已折戟兩家
- 4 “AI寒武紀”爆發(fā)至今,五類新物種登上歷史舞臺
- 5 國產智駕迎戰(zhàn)特斯拉FSD,AI含量差幾何?
- 6 光計算迎來商業(yè)化突破,但落地仍需時間
- 7 東陽光:2024年扭虧、一季度凈利大增,液冷疊加具身智能打開成長空間
- 8 地平線自動駕駛方案解讀
- 9 封殺AI“照騙”,“淘寶們”終于不忍了?
- 10 優(yōu)必選:營收大增主靠小件,虧損繼續(xù)又逢關稅,能否乘機器人東風翻身?