| FunctionGemma | Gemma 3 | 工具呼叫 | 裝置端代理 | 模型微調

Google推出FunctionGemma小模型,公開訓練配方主打本機工具呼叫

Google將Gemma 3的270M小模型針對工具呼叫應用進行微調,推出FunctionGemma 270M,鎖定手機與單板電腦等裝置端應用,並同步公開完整訓練配方。

2025-12-19

| VaultGemma | 差分隱私 | DP-SGD | google | Gemma 3

Google釋出VaultGemma,全球最大差分隱私語言模型開放下載

Google VaultGemma語言模型具10億參數,並採序列級差分隱私訓練,實測效能接近15億參數的GPT-2 1.5B,但低於10億參數的Gemma 3 1B

2025-09-16

| Gemma 3 | QAT量化訓練 | 本地部署 | GPU | 語言模型最佳化

Gemma 3支援QAT技術,消費級GPU就可執行270億參數大模型

Google釋出支援QAT技術的Gemma 3量化模型,開發者可在RTX 3090等消費級GPU本地執行270億參數模型,提升人工智慧模型可及性與部署彈性

2025-04-21

| Mistral Small 3.1 | 多模態AI | AI模型 | Gemma 3 | 本地端部署

Mistral Small 3.1視覺與語文理解能力領先Google新推的Gemma 3

Mistral AI推出Mistral Small 3.1,主打高效能與本地端運行能力,基準測試顯示其視覺理解與長上下文處理表現明顯優於Gemma 3,適合單卡GPU硬體環境

2025-03-19

| Gemma 3 | Gemma | 輕量模型 | 邊緣AI | google

Google釋出1B/4B/12B/27B的 Gemma 3,開始支援多模態

Google公布新一代輕量模型Gemma 3,可於單一GPU或TPU上執行,脈絡窗口長度更從Gemma 2的8k Token一舉擴大至128k,能夠處理及理解大量資訊

2025-03-13