圖片來源: 

hugging face

Google周四(8/14)開源Gemma 3 270M,這是Gemma系列中最輕量的版本,具備2.7億參數,它在Pixel 9 Pro上執行25輪對話僅耗0.75%電量。該模型專為特定任務微調與裝置端部署設計,具備指令遵循與文本結構化能力,而非通用型LLM。

Gemma 3 270M支援多種格式,其中INT4量化版本的記憶體需求約為240MB,相較BF16格式約400MB減少近4成,能在手機、IoT或其他低資源裝置上順利執行。

目前Gemma 3系列包含270M、1B、4B、12B與27B等不同規模版本。在Q4_0量化格式下,各模型的記憶體需求分別為240MB、892MB、3.4GB、8.7GB及21GB。Gemma 3 270M版本以最低記憶體門檻與最低功耗,成為目前系列中最適合部署於終端裝置的選擇。

Google也同步發布微調教學資源,包含以Hugging Face Transformers進行全模型訓練的完整流程,支援開發者針對分類、資料抽取、情緒分析等應用進行客製化。社群開發者也已透過transformers.js展示其在瀏覽器端的運行能力,證明Gemma 3 270M在Web環境中亦具備良好效能與可控性。

Gemma團隊表示,Gemma 3 270M適合處理高頻率、任務明確的應用,如情緒分析、實體辨識與查詢分類;能快速微調並部署於資源有限的裝置上,降低延遲與推論成本;模型可在本地執行,特別適合處理敏感資料;亦適用於開發多個專責任務的小型模型。

Gemma 3 270M與尚未開源的Gemma 3n同屬Google推動裝置端AI的戰略佈局。前者主打開源、可微調與跨平臺部署,後者則針對2GB RAM等極端低資源裝置優化,用於即時與離線運行。

熱門新聞

Advertisement