
Hugging Face
中國網路巨人百度本周宣布將具備思維能力的210億參數大語言模型文心(Ernie)4.5版,開放給企業和開發商使用。
百度今年初宣布Ernie-4.5挑戰GPT 4.5及DeepSeek R1。Ernie 4.5具備多模態能力,能同時理解文字、圖像、音訊及影片內容。百度在今年6月一舉開源了10款Ernie模型,參數量小至0.3B,大到424B,並包含2款混合專家(MOE)模型。
百度指出,三個月來該公司持續擴大這款模型的思維能力,使其思考品質和深度都見提升,因此使旗下輕量模型都能勝任複雜思考任務。
最新釋出的模型是ERNIE-4.5-21B-A3B,為文字混合專家模型,包含210億參數,每token啟用30億參數。其特色包括大幅提高邏輯思考、數學、科學、編程、文字生成等一般需要人類的思考任務運作效能、具有128k長脈絡的理解能力、而且還能使用工具。根據百度文件,ERNIE-4.5-21B-A3B支援簡中及英文。
ERNIE-4.5-21B-A3B-Thinking在多項推理繁重的任務中表現出色,特別是在ZebraLogic上得分為89.8,在BBH(Big-Bench Hard)上得分為87.77,在WritingBench上得分為86.5。在HumanEval+和MBPP這兩個常用的程式設計標竿測試中,得分分別超過90和80,顯示紮實的程式碼合成和函數生成能力。
ERNIE-4.5-21B-A3B-思考效能方面,在學術式數學任務(AIME2025)和科學QA(BFCL、MUSR)中,該模型略落後於Gemini 2.5 Pro,但仍具有競爭力。它在WritingBench和IF-Eval(指令遵循評估)方面居於領先,突顯了其在遵循結構化提示和產生連貫回應方面的能力。有趣的是,它在ChineseSimpleQA中的表現相對較低,為49.06,這顯示它在深度推理專業化和一般多語言效能之間的權衡。
欲執行這款模型,需要硬體具備80GB記憶體的單一GPU,以及FastDeploy 2.2環境。
該模型可在Apache 2.0許可下使用,使其可以免費用於研究和商業用途。百度已透過Hugging Face和GitHub發布。
熱門新聞
2025-12-02
2025-12-01
2025-11-30
2025-12-01
2025-12-01