研究人員將人工智慧工作負載,分散到64個GPU上,在7分鐘內就能分析完,1個月雷射干涉重力波天文臺所收集的重力波資料
2021-08-11
Descartes Labs使用AWS EC2建置超級電腦TOP500排名41
Descartes Labs使用4,096個EC2執行個體,總共使用172,692個核心,最高效能達9.95 PFLOPS,進入TOP500排名第41名
2021-06-30
| 全球500大超級電腦 | NERSC | 美國國家能源研究科學計算中心 | AI | 超級電腦 | Perlmutter | HPE | Nvidia | AMD
美國國家能源研究科學計算中心正式安裝全球最快AI超級電腦Perlmutter
由HPE與Nvidia及AMD聯手打造的GPU加速超級電腦Perlmutter,理論上可提供接近3.8 exaflop/s的AI效能,將用來協助描繪橫跨110億光年的宇宙圖
2021-06-01
| 超級電腦 | Fugaku | 臺灣杉 | Top500
全球500大超級電腦Arm-based Fugaku蟬連王座,臺灣杉3 列183名
由日本的理化學研究所(RIKEN)和富士通共合作打造的Fugaku,是全球第一個混合精度效能超過1 exaflop的硬體
2020-11-17
| AI | Nvidia | 超級電腦 | GPU | 開發者套件 | IBM | 精神疾病
AI趨勢周報第145期:Nvidia AI基礎架構DGX SuperPOD正式上市,數周就能建置Pflops等級超級電腦
Nvidia在技術年會GCP上宣布企業用AI基礎架構DGX SuperPOD正式上市,可在數周內建置AI超級電腦。DGX SuperPOD叢集可由20至140個不等的獨立AI加速系統DGX A100組成,可提供至少100 petaflops運算效能,最高可擴充至700 petaflops。同時,Nvidia也瞄準專業工作者,推出48GB超大容量GPU RTX A6000和A40。
2020-10-07
Arm架構日本新一代超級電腦Fugaku,奪下全球最快超級電腦寶座
Fugaku為富士通「京」超級電腦的後續者,採用Arm技術架構的富士通48核心A64FX晶片,共有15萬多個節點,預計2021年4月開始全面運作。
2020-06-23
| Build 2020 | 微軟 | OpenAI | Azure | 超級電腦
微軟為OpenAI發展的超級電腦,是一套包含28.5萬CPU核心、1萬顆GPU及每臺GPU伺服器每秒400 gigabits的網路連線,強調其規格和世界五百大超級電腦相比,名列全球第5
2020-05-20