4月29日,阿里巴巴開源了備受期待的新一代通義千問模型Qwen3(簡稱千問3),在GPQA、AIME24/25、LiveCodeBench等多個權威基準測試中全面超越R1、OpenAI-o1等全球頂尖模型,表現(xiàn)出極具競爭力的結果,登頂全球開源模型。
其中,在奧數水平的AIME25測評中,千問3獲得81.5分,刷新開源紀錄;在考察代碼能力的Live Code Bench測評中,千問3突破70分大關,表現(xiàn)超過Grok3;在評估模型人類偏好對齊的Arena Hard測評中,千問3以95.6分超越OpenAI-o1及DeepSeek-R1。
千問3采用混合專家架構,總參數量為235B,激活參數量僅需22B,在推理、指令遵循、工具調用、多語言能力等方面均大幅增強。
千問3具有以下主要亮點:
一是“快思考”與“慢思考”結合。作為國內首個“混合推理模型”,Qwen3將“快思考”與“慢思考”集成進同一個模型,可以在思考模式(用于復雜的邏輯推理、數學和編碼等任務)與與非思考模式(用于聊天等簡單實時交互)之間無縫切換,既可以對簡單需求進行“秒答”,也能夠對復雜問題進行多步驟“深度思考”,從而大幅節(jié)省算力消耗。
二是提供8種參數大小的模型。千問3提供了8款不同尺寸的豐富的模型版本,包含2款30B、235B的混合專家模型,以及0.6B、1.7B、4B、8B、14B、32B等6款稠密模型,每款模型均斬獲同尺寸開源模型SOTA(最佳性能)。這為本地測試與科研、手機端側應用、電腦或汽車端、企業(yè)落地、云端高效部署等不同場景與任務提供了能夠滿足要求的尺寸模型,最大程度平衡性能與成本。
二是推理能力顯著提升。千問3在數學、代碼生成和常識邏輯推理方面超越QwQ(在思考模式下)和Qwen2.5 instruct models(在非思考模式下)。其中,Qwen3-235B-A22B表現(xiàn)尤為突出,刷新了開源模型的智能水平新高,顯存占用僅為性能相近模型的三分之一。無論是數學推理、代碼生成還是綜合邏輯分析,Qwen3均展現(xiàn)出卓越能力,穩(wěn)居全球開源模型前列。
四是支持MCP協(xié)議,具備強大的工具調用能力。在評估模型智能體能力的BFCL評測中,千問3拿下70.8的新高,超越谷歌Gemini2.5-Pro、OpenAI-o1等頂尖模型,大幅降低智能體調用工具的門檻。千問3還支持MCP(模型上下文協(xié)議),并具備強大的工具調用能力,能夠實現(xiàn)高效的手機及電腦智能體操作等任務。
五是部署成本大幅下降。在性能大幅提升的同時,千問3的部署成本大大降低。滿血版671B參數量的DeepSeek-R1需要8張H20(價格大約100萬元)進行部署,適合低并發(fā)場景;一般推薦使用16張H20部署,總價約200萬元。而千問3的旗艦模型僅需3張H20(大約36萬元)即可部署,推薦使用4張H20部署,總價約50萬。因此,從部署成本角度看,千問3旗艦模型是滿血版R1的25%—35%,部署成本大降75%—65%。
據了解,千問3系列模型依舊采用寬松的Apache2.0協(xié)議開源,并首次支持119多種語言。目前,千問3已上線魔塔社區(qū)、HuggingFace、Github等平臺,全球開發(fā)者、研究機構和企業(yè)均可免費下載模型并商用。此外,個人用戶可通過通義APP直接體驗千問3,同時夸克也即將全線接入千問3。
當下,AI產業(yè)已將關注點從模型訓練轉向以智能體為核心的AI應用,性能更強、成本更優(yōu)的模型將有越來越大的應用價值。通義千問團隊表示:“千問3的發(fā)布和開源將極大地推動大型基礎模型的研究與開發(fā)。我們的目標是為全球的研究人員、開發(fā)者和組織賦能,幫助他們利用這些前沿模型構建創(chuàng)新解決方案?!?/p>
此次開源的千問3型以更小的參數規(guī)模實現(xiàn)了更高的智能水平,為開發(fā)者提供了更加多樣的模型尺寸及思考模式選擇,有助于開發(fā)者更好地平衡及控制預算成本。
通義千問團隊的技術負責人林俊旸在其個人社交平臺上表示,花了一些時間來找方法解決一些并不花哨的問題,比如如何通過穩(wěn)定的訓練來擴展強化學習、如何平衡來自不同領域的數據、如何增強對更多語言的支持等。他還表示,團隊正邁向下一個階段,即訓練智能體來擴展長程推理,同時更多地關注現(xiàn)實世界的任務。
據悉,作為與DeepSeek并成為“開源雙子星”的另外一星,阿里通義已開源200余個模型,全球下載量超3億次,千問衍生模型數超10萬個,已超越Meta的Llama,成為全球第一開源模型。通過持續(xù)的模型迭代及開源開放,阿里在推動AI技術普及的同時,也增強了中國在全球開源AI生態(tài)中的影響力。
校對:楊立林