| Nvidia | GPUDirect Storage | GDS | AI儲存生態圈
GPUDirect Storage(GDS)可以大幅提高儲存裝置與GPU之間的資料傳輸效率,但要啟用這套架構,必須有硬體與軟體方面的配合
2024-10-25
| Nvidia | GPUDirect Storage | GDS | AI儲存生態圈
【AI應用不可或缺的儲存傳輸加速架構】持續擴展中的GDS儲存應用
問世5年後,Nvidia的GPUDirect Storage(GDS)直連傳輸技術,已逐漸成為當前AI應用中,儲存環境必備的標準傳輸架構,整個企業儲存業界都在擁抱這項傳輸技術
2024-10-25
| Nvidia | GB200 | Blackwell | 開源運算專案 | Open Compute Project | OCP
Nvidia開源Blackwell平臺、伺服器元件設計給OCP
Nvidia將AI機櫃系統GB200 NVL72機櫃,以及液冷式運算與交換器匣設計,開源給開源運算專案(Open Compute Project)
2024-10-19
NVLM 1.0在光學字元辨識以及自然圖像理解的基準測試上,表現優於Llama 3-V、GPT-4o、Claude 3.5 Sonnet及Gemini 1.5 Pro
2024-10-02
AI帶動了Nvidia的資料中心業務,讓資料中心成為Nvidia成長最快也占比最高的營收來源
2024-08-29
| Cerebras Inference | AI推論解決方案 | Nvidia | Cerebras
Cerebras發表Cerebras Inference,號稱全球最快AI推論解決方案
Cerebras強調自家AI推論解決方案執行Llama 3.1模型的效能,比基於Nvidia GPU的大型雲端解決方案快上20倍,但價格只需1/5
2024-08-28
媒體The Information取得Nvidia合作夥伴說法,指出Nvidia Blackwell晶片因設計瑕疵,無法在今年第4季如期出貨
2024-08-05
| Nvidia | CVE-2024-0108 | AI | Jetson | Jetpack
上週Nvidia針對旗下GPU單板電腦平臺Jetson發布資安公告,修補高風險漏洞CVE-2024-0108,並指出若不處理,攻擊者有可能發動阻斷服務攻擊、提升權限、執行任意程式碼
2024-07-30
| Nvidia | OpenVDB | fVDB | 神經網路
Nvidia整合OpenVDB釋出fVDB開源框架,支援大規模3D資料深度學習任務
Nvidia以OpenVDB為基礎建構開源fVDB框架,其專為大規模3D資料集設計,支援高效深度學習操作和GPU加速,適用於生成式物理AI和空間智慧應用
2024-07-30
| Hugging Face | Nvidia | Nim | Inference-as-a-Service | 生成式AI | 推論即服務
Hugging Face推出依用量計價的Nvidia NIM推論即服務
Hugging Face企業平臺推出雲端推論即服務(inference-as-a-service),以Nvidia DGX Cloud以及容器化推論微服務NIM為技術核心
2024-07-30