| CloudFlare | GPU | TensorFlow | AI

Cloudflare在其邊緣網路提供人工智慧運算服務

Cloudflare在邊緣網路部署Nvidia GPU,讓開發者可以在邊緣網路上執行TensorFlow模型

2021-04-14

| 加速運算技術 | FPGA | DPU/SPU | GPU | 軟體定義技術 | SDN | 網路功能虛擬化 | NFV | SmartNIC

加速運算技術跨入企業應用有望

為了提供軟體定義網路(SDN)、網路功能虛擬化(NFV)、更好的效能,透過SmartNIC來卸載運算負擔的作法,因此受到關注,IT廠商也基於FPGA、DPU/SPU等加速運算技術來發展這類產品

2021-03-26

| 儲存輔助運算架構 | 加速運算技術 | FPGA | DPU/SPU | GPU | 軟體定義技術 | SDN | 網路功能虛擬化 | NFV | SmartNIC | 硬體加速

【加速儲存運算的輔助處理器】儲存輔助運算架構的基本概念與類型

透過在控制器端、附加板卡或儲存裝置上,引進基於ASIC、FPGA或低功耗處理器的加速硬體,幫助儲存設備更順暢地執行資料縮減、加密等應用,克服這些功能帶來的系統效能衝擊

2021-03-23

| 加速運算技術 | FPGA | DPU/SPU | GPU | 軟體定義技術 | SDN | 網路功能虛擬化 | NFV | SmartNIC

【透過硬體加速技術,克服軟體定義儲存架構的效能瓶頸】新興儲存應用帶動硬體加速需求

純粹的軟體定義儲存架構,已越來越無法因應資料縮減、加密等進階應用帶來的運算負擔,也為儲存陣列帶來引進專用輔助加速硬體的需求

2021-03-23

| VMware | Nvidia | GPU | AI | 混合雲 | vSphere | AI Enterprise for vSphere

VMware與Nvidia推出企業GPU虛擬化平臺

在VMware伺服器虛擬化軟體vSphere上執行Nvidia人工智慧企業軟體,透過虛擬化GPU資源,支援各種規模的人工智慧模型訓練和預測工作負載

2021-03-11

| Docker | WSL | GPU

Docker Desktop用戶現可利用WSL 2執行GPU工作負載

今年微軟在WSL 2增加GPU的支援,而現在Docker也跟上腳步,讓用戶可以使用Docker Desktop,執行可取用GPU資源的Linux容器

2020-12-23

| TensorFlow | GPU | 分散式訓練

TensorFlow 2.4正式支援多工作節點多GPU分散訓練機器學習模型

新加入的多工作節點鏡像策略,讓開發者可使用多臺具有多GPU的主機,訓練機器學習模型

2020-12-21

| AMD | HPC | GPU | AI

AMD發表目前最快HPC GPU,FP64運算效能突破10 TFLOPS

新發表的Instinct MI100加速器還採用Matrix Cores技術,可推進矩陣運算速度,在FP32矩陣效能可達46.1 TFLOPS,能大幅加速人工智慧工作負載

2020-11-17

| AWS | GPU | EC2

AWS發表搭載Nvidia A100 GPU的P4執行個體

AWS推出擁有8個A100 GPU的P4執行個體,深度學習效能是P3執行個體的2.5倍

2020-11-04