| Nvidia | GPUDirect Storage | GDS | AI儲存生態圈

【AI直連儲存加速時代來臨】GPUDirect Storage產品生態總覽

短短幾年內,Nvidia的GPUDirect Storage(GDS)儲存直連傳輸架構,已成功獲得幾乎所有重要儲存平臺的支援,成為當前AI應用的新一代標準傳輸架構

2024-10-25

| Nvidia | GPUDirect Storage | GDS | AI儲存生態圈

【AI應用不可或缺的儲存傳輸加速架構】持續擴展中的GDS儲存應用

問世5年後,Nvidia的GPUDirect Storage(GDS)直連傳輸技術,已逐漸成為當前AI應用中,儲存環境必備的標準傳輸架構,整個企業儲存業界都在擁抱這項傳輸技術

2024-10-25

| Nvidia | GPUDirect Storage | GDS | AI儲存生態圈

GPUDirect Storage的部署與啟用條件需求

GPUDirect Storage(GDS)可以大幅提高儲存裝置與GPU之間的資料傳輸效率,但要啟用這套架構,必須有硬體與軟體方面的配合

2024-10-25

| Nvidia | AI生態系 | 儲存系統 | GPUDirect Storage | GDS

一家廠商主導的AI硬體生態系統

隨著伺服器虛擬化、大數據分析、生成式AI技術浪潮一波波襲來,Nvidia都在其中扮演重要角色,他們不斷打破既有市場規則,開創許多新的典範

2024-10-25

| Nvidia | GPUDirect Storage | GDS | AI儲存生態圈

GPUDirect Storage(GDS)的基本概念

圖解Nvidia的GPUDirect Storage(GDS)直連傳輸技術

2024-10-25

| Nvidia | GB200 | Blackwell | 開源運算專案 | Open Compute Project | OCP

Nvidia開源Blackwell平臺、伺服器元件設計給OCP

Nvidia將AI機櫃系統GB200 NVL72機櫃,以及液冷式運算與交換器匣設計,開源給開源運算專案(Open Compute Project)

2024-10-19

| IT周報 | 醫療IT | 資料交換 | 嬌生 | 臨床試驗 | 新藥發現 | 微軟 | Copilot | Nvidia | 微服務

MedTech醫療科技雙周報第38期:美國釋出2024-2030年聯邦醫療IT策略計畫

美政府發布2024-2030年聯邦醫療IT策略計畫;嬌生揭醫療AI應用領域,瞄準外科、新藥發現和臨床試驗;衛福部攜16家醫院成立3大類型AI中心;微軟新添多款醫療AI工具;Nvidia在AI高峰會揭露美國公部門醫療AI實例

2024-10-15

| NVLM | Nvidia | 開源模型

Nvidia開源能與GPT-4o媲美的NVLM 1.0

NVLM 1.0在光學字元辨識以及自然圖像理解的基準測試上,表現優於Llama 3-V、GPT-4o、Claude 3.5 Sonnet及Gemini 1.5 Pro

2024-10-02

| Nvidia | H200 | GPU | 推論 | Blackwell

Nvidia公布Blackwell平臺AI推論Llama 2執行效能,為前代GPU 4倍

Nvidia公布下一代GPU架構Blackwell的執行效能,宣稱執行Llama 2模型的效能是前代產品的4倍

2024-08-29

| Nvidia | 財報 | Blackwell

Nvidia財報出爐,營收再成長122%

AI帶動了Nvidia的資料中心業務,讓資料中心成為Nvidia成長最快也占比最高的營收來源

2024-08-29

| Cerebras Inference | AI推論解決方案 | Nvidia | Cerebras

Cerebras發表Cerebras Inference,號稱全球最快AI推論解決方案

Cerebras強調自家AI推論解決方案執行Llama 3.1模型的效能,比基於Nvidia GPU的大型雲端解決方案快上20倍,但價格只需1/5

2024-08-28

| Nvidia | AI晶片 | Blackwell

Nvidia下一代AI晶片傳設計瑕疵將延後至少1季推出

媒體The Information取得Nvidia合作夥伴說法,指出Nvidia Blackwell晶片因設計瑕疵,無法在今年第4季如期出貨

2024-08-05