
圖片來源:
Hugging Face
騰訊周一(9/1)開源了兩個基礎翻譯模型,分別是基礎翻譯模型Hunyuan-MT-7B,以及集成模型Hunyuan-MT-Chimera,它們皆支援33種語言之間的相互翻譯,如中文、英文、日文、捷克文、冰島語,以及哈薩克語、維吾爾語、蒙語與藏語等5種少數民族語言。
Hunyuan-MT-7B可將來源語言文本翻譯成目標語言,Hunyuan-MT-Chimera則可整合多個翻譯輸出以產生更高品質的結果,這兩個模型在少數民族語言的互譯上明顯優於其它模型。
此外,騰訊也公布了它們在FLORES-200及WMT24pp基準測試上的表現,顯示它們相較於GPT-4.1、Claude 4 Sonnet及Gemini 2.5 Pro等知名模型並不遜色,而且大幅優於Google翻譯(Google Translate)。
騰訊表示,Hunyuan-MT模型在WMT25競爭中參加了31個語言類別,並於其中30個獲得第一名;在同規模的模型中領先業界;且Hunyuan-MT-Chimera是業界首個開源的集成模型,將翻譯品質提升到新的水平;此外,它採用了全新的翻譯模型訓練框架,從預訓練、繼續預訓練、監督式微調、翻譯強化學習,以及集成強化學習,確保模型的高品質輸出。
這是因為大多數的翻譯模型通常止步於監督式微調,而Hunyuan-MT進一步納入了優化品質與集成強化,讓小模型也能產出優秀的翻譯品質。
熱門新聞
2025-12-02
2025-12-01
2025-12-01
2025-12-01
2025-12-04
2025-11-30
Advertisement