| Nvidia | AI | GPU | 超級電腦

Nvidia發表邊緣運算用AI超級電腦Jetson AGX Orin

Jetson AGX Orin是可以放在手掌上的小型人工智慧超級電腦,搭載Arm Cortex-A78AE CPU以及Nvidia Ampere架構GPU,提供GPU伺服器等級的運算能力

2021-11-11

| 微軟 | GPU | AI | 機器學習 | PyTorch

微軟開源可在任何GPU訓練機器學習模型的套件PyTorch-DirectML

PyTorch-DirectML套件可將GPU機器學習函式庫DirectML作為PyTorch框架的後端,在DirectX12 GPU和WSL上執行模型訓練

2021-10-25

| 微軟 | WSL | CUDA | GPU | Linux

WSL現在廣泛支援GPU加速機器學習工作負載

Windows 11用戶可以在WSL中,依照機器學習工作負載的需求,配置Nvidia CUDA或是TensorFlow-DirectML,以使用GPU加速運算

2021-10-07

| 封面故事 | 英特爾 | 伺服器 | Sapphire Rapids | CPU | GPU | IPU | Xeon Scalable | SOC | 模組化系統單晶片 | PCIe 5.0 | CXL 1.1

2022英特爾伺服器平臺:Sapphire Rapids

翻新製程與封裝技術,搭配著重效能的核心及多元加速器引擎,並且大膽採用PCIe 5.0與DDR5記憶體規格

2021-09-08

| 封面故事 | 英特爾 | GPU | 資料中心繪圖處理器 | Ponte Vecchio | 高效能運算 | 機器學習 | 英特爾架構日 | Xe Link

2022英特爾資料中心繪圖處理器:Ponte Vecchio

結合英特爾、台積電製程技術,打造適用高效能運算與機器學習的單一平臺,將模組化堆疊擴充架構發揮至極致

2021-09-08

| 客座文章 | DBS | 大數據 | Big Data | 軟體定義儲存 | 微服務 | GPU | 新加坡星展銀行

【DBS客座文章】星展銀行如何打造大數據平台

隨著相關應用與學術的發展,我們不得不在2019年重新設計整個企業之資料平台,以克服幾個未來的挑戰。從GCP及AWS在大數據領域的發展汲取靈感,設計了這個可以更有效處理多租戶(multitenancy)、降低資源搶奪風險及營運成本的平台,並確保我們的關鍵應用程式得以正常運行。

2021-09-02

| Cloudera | Cloudera數據平臺 | Spark | RAPIDS | Nvidia | GPU

Cloudera數據平臺Spark工作開始支援GPU運算,讓ML資料前處理提高5倍執行效率

Cloudera近期在自家的數據平臺中,整合了可在GPU上加速Spark的開源函式庫RAPIDS,讓大多以CPU來執行的Spark工作負載能輔以GPU來執行,可提升ML資料前處理的速度達到5倍

2021-08-09

| OpenAI | GPU | TRITON

OpenAI開源專用於開發神經網路的GPU程式語言Triton

Triton簡化了GPU程式開發的複雜性,能夠自動進行最佳化,使沒有CUDA程式開發經驗的開發者,也能寫出高效率GPU程式碼

2021-07-29

| AI學校 | MLOps | AI | GPU

蔡明順:不只企業靠自動化技術加速AI開發,AI學校也用MLOPs三年了

臺灣人工智慧學校已經悄悄使用MLOps三年了。臺灣人工智慧學校校務長蔡明順指出,學校用MLOps來優化技術班的學員模型開發,也用來配置運算資源。

2021-06-29

| 英特爾 | 改組 | CPU | GPU

英特爾成立加速運算、軟體事業群

迎戰CPU及GPU產業競爭白熱化,英特爾打造加速運算系統與繪圖及軟體與進階技術兩大事業群

2021-06-23

| GAN | GPU | 模擬 | 物理 | 宇宙 | AI

研究人員在GPU上執行生成對抗網路,加速高解析度宇宙模擬

新生成對抗網路可獲GPU加速,提升宇宙模擬速度,把過去使用超級電腦耗時數個月的計算時間,縮減到只使用單一GPU花費16小時就完成

2021-06-01

| google | Kubernetes | GPU

GKE現讓多執行個體共享單一GPU

單個Nvidia A100 GPU可切分成7個執行個體,每個執行個體可分配1個容器,如此便能最大化GPU運算資源使用率

2021-04-29