圖片來源: 

Google, Anthropic

美國AI公司Anthropic上周四(10/23)宣布,將大幅擴充使用Google Cloud的TPU(Tensor Processing Unit)運算資源,計畫取得多達100萬顆TPU的使用權,並於2026年啟用超過1GW算力。這項合作金額估達數百億美元,是Anthropic成立以來規模最大的TPU擴展案。

TPU是Google為AI設計的專用加速晶片,針對深度學習與TensorFlow最佳化,具高效能與低功耗特性。相較之下,Nvidia GPU屬通用圖形處理器,支援多樣AI與科學運算。TPU以固定架構提升效率與成本效益,GPU則以靈活性與完整開發生態取勝。

Anthropic與Google Cloud自2023年便展開合作,Anthropic使用Google Cloud的AI基礎架構來訓練Claude模型,並透過Vertex AI與Google Cloud Marketplace對企業提供服務。目前已有超過30萬家企業使用Claude,包括Figma、Palo Alto Networks與Cursor等。

根據雙方的協議,此一擴充將提供Anthropic訓練與部署下一代Claude模型所需的算力,並搭配Google Cloud的資料儲存、安全與開發服務。Google指出,這是Anthropic迄今最大規模的TPU使用擴張,且TPU具備出色的價格效能比與能源效率。

Google Cloud執行長Thomas Kurian說明,Anthropic選擇擴充TPU使用量,反映其團隊多年來在TPU上獲得的卓越效能與效率成果。他同時提到,Google正在持續優化AI加速器產品線,包括代號為Ironwood的第七代TPU,以進一步提升整體運算能力。

另一方面,Anthropic強調該公司仍維持其多雲架構策略,靈活運用Google TPU、Amazon Trainium與Nvidia GPU三大平臺,確保運算效率與成本彈性。未來還會繼續與主要雲端夥伴Amazon合作推動Rainier運算叢集專案。

隨著這批百萬TPU與1GW級算力於2026年陸續上線,Anthropic預期能加速Claude模型的研發、測試與安全部署,強化其在全球AI競爭中的技術實力,並推動生成式AI進入更高階的發展階段。

熱門新聞

Advertisement