圖片來源: 

Hugging Face

騰訊周一(9/1)開源了兩個基礎翻譯模型,分別是基礎翻譯模型Hunyuan-MT-7B,以及集成模型Hunyuan-MT-Chimera,它們皆支援33種語言之間的相互翻譯,如中文、英文、日文、捷克文、冰島語,以及哈薩克語、維吾爾語、蒙語與藏語等5種少數民族語言。

Hunyuan-MT-7B可將來源語言文本翻譯成目標語言,Hunyuan-MT-Chimera則可整合多個翻譯輸出以產生更高品質的結果,這兩個模型在少數民族語言的互譯上明顯優於其它模型。

此外,騰訊也公布了它們在FLORES-200及WMT24pp基準測試上的表現,顯示它們相較於GPT-4.1、Claude 4 Sonnet及Gemini 2.5 Pro等知名模型並不遜色,而且大幅優於Google翻譯(Google Translate)。

騰訊表示,Hunyuan-MT模型在WMT25競爭中參加了31個語言類別,並於其中30個獲得第一名;在同規模的模型中領先業界;且Hunyuan-MT-Chimera是業界首個開源的集成模型,將翻譯品質提升到新的水平;此外,它採用了全新的翻譯模型訓練框架,從預訓練、繼續預訓練、監督式微調、翻譯強化學習,以及集成強化學習,確保模型的高品質輸出。

這是因為大多數的翻譯模型通常止步於監督式微調,而Hunyuan-MT進一步納入了優化品質與集成強化,讓小模型也能產出優秀的翻譯品質。

熱門新聞

Advertisement