圖片來源: 

特斯拉

特斯拉宣稱自建的超級電腦叢集,運算速度已經達到全球超級電腦排名第7的水準。

特斯拉工程經理Tim Zaman上周透過推特宣布公司將贊助8月29日到9月1日舉行的MLSysConf大會,也將展示特斯拉AI團隊開發的Nvidia A100 GPU超級電腦硬體成果。

Zaman說現在這個系統已升級到7,360顆 A100(80GB)GPU,以GPU數量來看的話,相當於全球第7大。這個數字也比去年的5,760顆多了1,600顆,增加28%。

Nvidia A100 GPU為Nvidia為資料中心設計的Ampere架構GPU,具備80GB HBM2e記憶體,記憶體頻寬到2TB/s,用電量高達400W。它也相當適合用於AI模型訓練、資料分析及高效能運算(HPC)應用之執行。

特斯拉並未說明這座AI系統的實際運算效能。Tom's Hardware報導,使用數量6,144顆A100 GPU的美國國家能源研究科學計算中心(National Energy Research Scientific Computing Center,NERSC)Perlmutter超級電腦標竿測試效能達70.87 petaflops,而HPC Wire估計特斯拉的AI超級電腦可能達到每秒100 petaflops。

不過未來特斯拉自建超級電腦可能逐漸轉向自家晶片。馬斯克於2020年宣布他們自行開發訓練神經網路的超級電腦以處理大量影像資料,名為Dojo。他當時也為這項計畫公開徵才。這個部門位於加州帕羅奧圖市、德州奧斯汀及西雅圖。

配合Dojo,特斯拉也正在開發專用的D1 Dojo ASIC晶片,強調將具備極大運算效能(362 TFLOPS)、傳輸率及頻寬,完全專為ML訓練和高速頻寬而設計。

熱門新聞

Advertisement