
Qwen
阿里巴巴旗下AI團隊Qwen周二(7/22)釋出最新開源模型Qwen3-Coder,主打程式撰寫與多步驟代理任務能力,並同步推出命令列AI代理工具Qwen Code。
本次率先釋出的版本為Qwen3-Coder-480B-A35B-Instruct,總參數高達4800億,採用混合專家(MoE)架構,每次推論啟用350億參數。該模型原生支援長達256K個Token的脈絡,透過YaRN外推方法可擴展至100萬個Token,適用於大型程式碼庫、跨模組資料分析等任務。
為提升模型的可用性與推論效率,Qwen同時釋出FP8量化版本——Qwen3-Coder-480B-A35B-Instruct-FP8。FP8是一種8位元浮點數格式,可大幅減少模型所需的儲存空間與運算資源,在支援FP8的硬體(如Nvidia H100)上能以更低成本執行大型模型,幾乎不影響輸出品質。此版本特別適用於雲端服務、研究部署與低記憶體環境。
Qwen同時開源名為Qwen Code的命令列AI代理工具,為一基於Google Gemini CLI開發的改良版本,能夠整合自定提示詞設計與函式呼叫格式,支援多輪互動、函式封裝與開發者自訂任務流程。使用者僅需安裝Node.js並輸入API金鑰,即可於終端機環境中調用Qwen3-Coder進行即時程式對話、工具操作,以及複雜的任務推論。
在訓練策略上,Qwen3-Coder結合大規模預訓練與後訓練強化學習。其預訓練資料涵蓋7.5兆個token,其中約70%為高品質程式碼片段,並針對如合併請求(Pull Request)等動態資料結構,進行脈絡處理最佳化。後訓練階段則導入多輪互動強化學習(Agent RL),並於阿里雲上建構可同時模擬2萬個獨立環境的代理系統,用以訓練具規劃、回饋與決策能力的代理行為。
該模型在代理程式撰寫、瀏覽器操作與工具使用等任務上表現領先,不僅全面超越開源模型Kimi-K2與DeepSeek-V3,整體效能亦已達Claude Sonnet 4等級;同時在專門評估實際軟體工程任務的SWE-Bench Verified基準測試中,取得目前開源模型最高成績,且無需在測試階段進行額外調整。
Qwen打算釋出更多Qwen3-Coder的尺寸版本,以降低部署門檻,同時積極探索讓Coding Agent具備自我增強能力的可能性。開源模型與工具現已於Hugging Face及GitHub上架,開發者亦可透過阿里雲DashScope平臺直接使用API部署。
熱門新聞
2025-12-02
2025-12-01
2025-12-01
2025-12-01
2025-11-30
2025-12-04