負責支援並保護全球線上運作的雲端服務供應商 Akamai Technologies, Inc.(以下簡稱:Akamai)(NASDAQ: AKAM)今日正式宣布推出 Akamai Inference Cloud
該平台透過將推理從核心資料中心擴展至網際網路邊緣,重新定義了AI 應用的場景與方式。

Akamai Inference Cloud 能夠在更靠近使用者與設備的位置進行智慧化推理。不同於傳統系統,該平台專為在全球範圍內提供低延遲、即時的邊緣 AI 運算而設計。此次推出的 Akamai Inference Cloud,結合 Akamai 在全球分散式架構方面的深厚經驗NVIDIA Blackwell AI 基礎架構,對實現 AI 真正潛力所需的加速運算能力進行了顛覆性重構與擴展。

從個人化數位體驗、智慧代理到即時決策系統,下一代的 AI 應用程式迫切需要將 AI 推理部署於更靠近使用者的位置,以便在互動瞬間完成反應,並對請求的路由與執行路徑做出智慧化決策。
智慧代理的工作負載日益仰賴低延遲推理、本地環境感知以及即時全球擴展的能力。專為推動此變革打造的 Akamai Inference Cloud,是一個分散式、生成式邊緣平台,可在更接近資料產生與決策執行的位置部署 NVIDIA AI 技術堆疊

Akamai 執行長暨共同創辦人 Tom Leighton 博士 表示:

「下一波 AI 浪潮的發展同樣需要更靠近使用者—正如網際網路當年能夠成長為今日的全球平台一樣。Akamai 曾成功解決這一挑戰,如今我們再度迎接新一波機遇。借助 NVIDIA 的 AI 基礎架構,Akamai Inference Cloud 將在全球數千個節點上部署 AI 推理能力,以滿足不斷成長的運算與效能需求,從而實現更快速、更智慧、更安全的即時反應。」

NVIDIA創始人兼首席執行官黃仁勳指出:

「推理已成為 AI 中最密集的運算環節—並且必須在全球規模下即時進行。NVIDIA 與 Akamai 的合作,正是將推理能力推進到更靠近每一位使用者的位置,提供更快速、可擴展性更強的生成式 AI 服務,釋放新一代智慧應用的潛力。」

Akamai Inference Cloud 透過將智慧代理 AI 推理能力擴展至更靠近使用者與設備的位置,重新定義了 AI 應用的方式。該平台整合 NVIDIA RTX PRO Server(配備 NVIDIA RTX PRO 6000 Blackwell 伺服器版 GPUNVIDIA BlueField-3 DPUNVIDIA AI Enterprise 軟體),並結合 Akamai 的分散式雲端架構 與遍布全球超過 4,200 個據點的邊緣網路。Akamai Inference Cloud 也將運用 NVIDIA 最新技術(包括新發佈的 NVIDIA BlueField-4 DPU),進一步加速並強化從核心到邊緣的資料存取與 AI 推理工作負載,推動 Akamai 實現其打造全球高可擴展、分散式 AI 架構的願景。

Akamai 與 NVIDIA 攜手合作,透過 Akamai Inference Cloud,以前所未有的方式推進 AI 推理,
共同開創 AI 發展新篇章:

  • 將企業級 AI 工廠延伸至邊緣,賦能智慧代理與個人化體驗:
    AI 工廠是強大的引擎,負責統籌管理從資料擷取到大規模智慧生成的完整生命週期。
    Akamai Inference Cloud 將 AI 工廠延伸至邊緣,使資料與處理能去中心化,並藉由 Akamai 廣泛的邊緣節點將請求路由至最佳模型。這讓智慧代理能即時因應使用者位置、行為與意圖,並自主完成即時協商、購買或交易最佳化。

  • 支援串流推理與智慧代理,實現即時金融洞察與決策:
    AI 智慧代理往往需多次連續推理才能完成複雜任務,這可能導致延遲並降低使用者體驗。若每次推理都需遠端呼叫,則會造成網路延遲與反應遲滯。Akamai Inference Cloud 的邊緣原生架構提供近乎即時的回應,使 AI 智慧代理能在多步驟流程中以接近人類的速度運作,在詐欺偵測、安全支付與工業邊緣即時決策等場景中發揮重大作用。

  • 使實體 AI 具備超越人類的反應速度:
    無人駕駛車輛、工業機器人與智慧城市基礎設施等實體 AI 系統,需要毫秒級決策能力才能安全地與真實世界互動。Akamai Inference Cloud 旨在為這些系統賦能,使其能即時處理感測資料、進行安全判斷並協調行動,讓工廠產線、配送無人機、手術機器人與智慧交通網絡都能成為與人類安全協作、反應迅速的智慧體系。

  • 加速價值實現:
    在多個雲端區域編排複雜的分散式 AI 工作負載需要專業技能與團隊。Akamai Inference Cloud 的智慧編排層可自動將 AI 任務路由至最佳地點—常規推理透過邊緣的 NVIDIA NIM 微服務 即時執行,而複雜推理則交由集中式 AI 工廠處理。所有流程皆由單一平台統一管理,大幅降低基礎架構的複雜度。

Akamai Inference Cloud 現已正式上線,首波部署將覆蓋全球 20 個地點,並計畫持續擴展。

了解更多關於 Akamai Inference Cloud 的訊息,請訪問我們的網站

https://www.akamai.com/products/akamai-inference-cloud-platform

熱門新聞

Advertisement