OpenAI迄今最智能的推理模型發(fā)布。
今日,OpenAI發(fā)布了最新兩款o系列推理模型,分別是o3和o4-mini,這也是o系列中首次可以使用圖像進(jìn)行思維鏈推理、實(shí)現(xiàn)“看圖思考”的模型。其中,o3是其最強(qiáng)大的推理旗艦?zāi)P?,在編程、?shù)學(xué)、科學(xué)、視覺感知等多個(gè)維度的基準(zhǔn)測試中都處于領(lǐng)先位置;o4-mini是一個(gè)針對快速高效、成本效益推理進(jìn)行優(yōu)化的較小模型,更具性價(jià)比。
在兩款o系列推理模型發(fā)布后,OpenAI首席執(zhí)行官薩姆·奧特曼轉(zhuǎn)發(fā)一名體驗(yàn)者的推文,并表示新模型“達(dá)到或接近天才水平”。此外,奧特曼還表示,預(yù)計(jì)會在未來幾周內(nèi)將o3升級到專業(yè)版o3-pro。
視覺推理能力“首秀”,具備自主執(zhí)行任務(wù)能力
據(jù)OpenAI介紹,最新發(fā)布的o3和o4-mini經(jīng)過訓(xùn)練后,可以在做出反應(yīng)前進(jìn)行更長時(shí)間的思考。這是公司迄今為止發(fā)布的最智能的模型,代表著ChatGPT能力的一次重大飛躍。
記者注意到,在半小時(shí)的線上發(fā)布會直播中,此前曾長期休假的OpenAI總裁GregBrockman(格雷格·布洛克曼)也作為發(fā)布者,向觀眾介紹和演示o3和o4-mini。
根據(jù)介紹及演示,o3和o4-mini主要有以下亮點(diǎn):
一是性能更強(qiáng)大。作為OpenAI迄今最強(qiáng)大的推理模型,o3和o4-mini在編程、數(shù)學(xué)、科學(xué)、視覺理解等多個(gè)領(lǐng)域均取得了突破性進(jìn)展。在STEM問答(MMMU、MathVista)、圖表閱讀和推理(CharXiv)、感知原語(VLMsareBlind)和視覺搜索(V*)方面均達(dá)到了新的最先進(jìn)性能。
此外,在外部專家的評估中,o3在困難的現(xiàn)實(shí)任務(wù)中比OpenAIo1犯的重大錯(cuò)誤少20%,尤其是在編程、商業(yè)/咨詢和創(chuàng)意構(gòu)思等領(lǐng)域表現(xiàn)出色。o4-mini作為一款體型更小的模型,則以其尺寸和成本實(shí)現(xiàn)了卓越的性能,是AIME2024和2025基準(zhǔn)測試中表現(xiàn)最佳的模型。而且o4-mini支持比o3高得多的使用限制,具備高容量、高吞吐量的優(yōu)勢。
二是具備圖像思考和推理能力,可實(shí)現(xiàn)“看圖思考”。與前代模型相比,o3和o4-mini模型可以直接將圖像整合到思維鏈中,用圖像來進(jìn)行思考,并在多模態(tài)基準(zhǔn)測試中展現(xiàn)出頂尖性能。
OpenAI稱,人們可以上傳白板照片、教科書圖表或手繪草圖,即使圖像模糊、反轉(zhuǎn)或質(zhì)量低下,模型也能對其進(jìn)行解讀。借助工具,模型可以動態(tài)操作圖像,在推理過程中進(jìn)行旋轉(zhuǎn)、縮放或變換。
比如,當(dāng)用戶將一張寫有較難看清文字的筆記本圖片輸入到對話框中,并提問“筆記本上寫了什么”時(shí),o3會分析圖片,并依次推理出其中的文字內(nèi)容。當(dāng)用戶向其輸入一張手繪題目的圖片時(shí),o3也會對圖片進(jìn)行仔細(xì)識別,并給出完整的解題思維鏈。
三是可調(diào)動ChatGPT中的工具,自主執(zhí)行任務(wù)。據(jù)介紹,o3和o4-mini可以完全訪問ChatGPT中的工具,以及通過API中的函數(shù)調(diào)用訪問用戶自己的自定義工具。例如,用戶可能會問:“加州夏季的能源使用量與去年相比如何?”該模型可以搜索網(wǎng)絡(luò)公共事業(yè)數(shù)據(jù),編寫Python代碼進(jìn)行預(yù)測,生成圖表或圖像,并解釋預(yù)測背后的關(guān)鍵因素,并將多個(gè)工具調(diào)用串聯(lián)起來。推理功能使模型能夠根據(jù)遇到的信息做出反應(yīng)和調(diào)整。
新模型“小步快跑”,GPT-5依然不見蹤影
最近一段時(shí)間以來,OpenAI在新模型、新功能的發(fā)布上保持著密集的節(jié)奏,以層出不窮的新模型展現(xiàn)技術(shù)的最新實(shí)力。
值得注意的是,在推出o3系列最新模型的前一天,OpenAI還推出三款GPT-4.1系列模型,包含標(biāo)準(zhǔn)版GPT-4.1、輕量款GPT-4.1mini,以及超小型版本GPT-4.1nano。事實(shí)上,此前GPT系列模型已進(jìn)化至4.5版本,而此次的“倒退”則是OpenAI在面對全球大模型廠商激烈的價(jià)格競爭而采取的策略,以更具性價(jià)比的4.1版本吸引更多用戶。
據(jù)介紹,GPT-4.1最大優(yōu)勢在于多模態(tài)處理、代碼能力、指令遵循和成本方面實(shí)現(xiàn)顯著提升。價(jià)格方面,GPT-4.1比GPT-4o價(jià)格降低26%,GPT-4.1Nano作為最小、最快的模型,價(jià)格也最便宜,每百萬token的成本僅為12美分。
相比于這些新模型,公眾一直更為期待的是GPT-5,但GPT-5的發(fā)布時(shí)間卻一直在延遲。去年年底,華爾街日報(bào)報(bào)道稱,GPT-5正面臨重重困難,該項(xiàng)目已開發(fā)超過18個(gè)月,成本花費(fèi)巨大,卻仍未取得預(yù)期成果。
奧特曼此前也曾經(jīng)表示,由于計(jì)算能力的限制,公司無法按預(yù)期頻率推出GPT-5。今年4月初,奧特曼在社交媒體上發(fā)文稱,GPT-5的發(fā)布比預(yù)期要晚,因?yàn)椤绊樌纤袃?nèi)容比我們預(yù)想的要困難得多?!彼硎?,將在未來幾周內(nèi)發(fā)布o(jì)3和o4-mini,未來幾個(gè)月將發(fā)布GPT-5,并強(qiáng)調(diào)GPT-5發(fā)布后會非常受歡迎,可能會有大量的用戶使用,所以需要提前做好準(zhǔn)備。
與備受關(guān)注的GPT-5一樣,目前大家也對DeepSeek的下一代推理模型R2充滿期待。市場預(yù)期R2將于今年5月推出。前不久,DeepSeek與清華大學(xué)研究團(tuán)隊(duì)聯(lián)合發(fā)布題為《獎(jiǎng)勵(lì)模型的推理時(shí)Scaling方法及其在大規(guī)模語言模型中的應(yīng)用》的重磅論文,提出自我原則點(diǎn)評調(diào)優(yōu)(SPCT)與元獎(jiǎng)勵(lì)模型(MetaRewardModel)兩項(xiàng)核心技術(shù),為提升大語言模型的推理能力提供了全新方法論,被視為下一代推理模型R2的重要技術(shù)鋪墊。
校對:祝甜婷