
Google釋出FunctionGemma小模型,這是以Gemma 3 270M(2.7億參數)為基礎,專門針對工具呼叫需求進行微調的版本,並同步公開一套訓練配方,讓開發者能再依自家應用的API動作集進一步微調。Google將其設定為裝置端代理的基礎模型,目標是在手機等可本機運行的環境中,把自然語言指令轉成可執行的API動作,同時兼顧反應時間與資料隱私。
Google提到,自Gemma 3 270M推出後,開發者最常提出的需求之一就是原生的工具呼叫能力,官方認為,生成式AI產品的互動介面正從單純對話,轉向能代為執行任務的代理系統。FunctionGemma 主要針對單輪與並行的工具呼叫進行訓練,但要把多步驟操作串成相依的工作流,通常仍需由外部編排流程,或依自家動作集再微調,才能控制輸出行為到可預期範圍。
官方強調FunctionGemma處理執行與說明兩種輸出場景。模型可以先產生結構化的工具呼叫內容,交由既有工具或作業系統能力執行,取得回應後再用自然語言整理結果回覆使用者。這也讓FunctionGemma在系統架構上有兩種常見用法,一種是作為離線、本機的獨立代理,負責處理不需連網的私人任務,另一種是作為裝置端的任務分流器,先把常見指令在裝置上快速處理,再把較複雜的需求轉交給較大型模型,例如Gemma 3 27B。
Google以Mobile Actions評估為例說明微調的必要性,官方指出,要是以基礎模型直接上場,準確率約為58%,但在針對資料進行微調後,於保留測試集上的準確率可提升到85%。
FunctionGemma的量體設計可支援像是手機與單板電腦等裝置,同時沿用Gemma系列約25萬規模的詞彙表,以提升對JSON格式與多語輸入的處理效率。官方說法是,較有效率的Token切分有助縮短序列長度,進而降低延遲並更貼近在地運算的隱私需求。為了讓開發與部署更容易接上既有流程,Google也列出支援的工具鏈,包含訓練端可用Hugging Face Transformers、Unsloth、Keras或Nvidia NeMo,部署端則可選LiteRT-LM、vLLM、MLX、Llama.cpp、Ollama、Vertex AI或LM Studio等環境。
熱門新聞
2025-12-24
2025-12-23
2025-12-22
2025-12-19
2025-12-23
2025-12-23
2025-12-22