
Ollama推出Turbo雲端服務,將資料中心等級的運算資源整合進現有產品線,協助用戶提升開源大型語言模型的推論效率,並解決本地端硬體資源不足造成的效能瓶頸。該服務初期支援gpt-oss-20b及gpt-oss-120b等開源模型,採訂閱制收費模式,讓使用者以相對平價的方式,獲得穩定且高速的雲端推論能力。
Ollama定位是提供本地部署開源語言模型的平臺,讓開發者能在Mac、Windows及Linux等環境,快速安裝並執行多種開源人工智慧模型。Ollama強調用戶資料隱私與模型運算自主控制,因此在企業內部或法規要求較高的應用場景具有一定市場需求。不過,隨著語言模型規模成長,參數數量動輒數十億上百億,超越多數消費級GPU的記憶體與算力負荷,這使得模型執行與推論速度大幅下降,甚至無法在標準個人電腦上正常運作。
Ollama推出Turbo雲端服務回應上述挑戰,讓用戶可直接透過Ollama App、CLI或API切換至Turbo模式,由遠端資料中心負責模型推論運算。這一設計降低了本地端設備的運算壓力,提升大型模型的推論速度,並減少軟硬體升級所需的成本與時間。
Turbo服務所有伺服器皆設置於美國,官方明確表示不會儲存或記錄用戶查詢內容,維持原有的隱私承諾。服務現階段以固定月費方式提供,並設有小時與每日使用配額,以確保系統穩定運作。後續預計引入用量計費模式,以因應不同類型用戶的彈性需求。
Turbo雲端服務讓開發團隊不必再受限個人設備的GPU規格,即可評估、部署與測試大型開源語言模型,這對於中小型企業、教育機構或個人開發者降低進入人工智慧領域的門檻,並加速模型在實際專案中的落地。隨著支援的模型類型增加,將可涵蓋更多語言模型及生成式人工智慧應用場景。
熱門新聞
2025-12-02
2025-12-01
2025-11-30
2025-12-01
2025-12-01
2025-12-04