| google | GKE | pod | GPU

Google雲端K8s服務Autopilot模式新增支援GPU和超大型Pod

Google雲端GKE全託管操作模式Autopilot,開始可以配置Nvidia T4和A100 GPU,執行機器學習訓練、推理和影片編碼等GPU工作負載

2022-09-30

| 微軟 | Windows Terminal | GPU

Windows Terminal 1.16加入樣式主題概念,更換預設文字渲染引擎

Windows Terminal讓使用者可以透過編輯主題,方便地控制終端器外觀,而新的文字渲染引擎則能夠顯示更多類型的文字樣式

2022-09-14

| Nvidia | 中國 | 俄羅斯 | GPU | 出口限制

Nvidia取得高階GPU出口中國的許可

在8月26日傳出美方一度有意限制AMD與Nvidia高階GPU出口中俄二國,不過,Nvidia於9月1日曝光的SEC文件顯示,該公司已取得A100與開發中的H100的出口許可

2022-09-02

| 美國 | Nvidia | GPU | 禁令 | 中國 | 資安 | 軍事

美國要求Nvidia與AMD不得出口高階GPU至中國與俄羅斯

Nvidia估計美方要求禁止銷售高效能GPU予中國的規定,將讓該公司今年第三季損失約4億美元營收

2022-09-01

| Nvidia | 財報 | GPU

Nvidia第二季遊戲營收下滑33%

造成財報不符預期的元兇為遊戲,Nvidia指出,看起來像是宏觀經濟的阻礙讓經銷商的銷售變少,進而影響遊戲產品出貨量

2022-08-09

| NVMe SSD | GPU | 400Gb

儲存月報第69期:PCIe 5應用環境逐步成形

從網路卡、NVMe SSD、GPU等周邊裝置,到處理器與主機平臺,都正在迅速導入PCIe 5.0介面,預期年底將能初步形成完整的應用環境

2022-06-23

| AWS | EC2 | GPU

AWS開始預覽大型機器學習訓練用GPU執行個體EC2 P4de

P4de執行個體可提供高達8個Nvidia A100 GPU,總共擁有640 GB的GPU記憶體,是當前GPU執行個體P4d的2倍

2022-05-27

| Nvidia | Computex | Grace | CPU | GPU

Nvidia發表Grace伺服器參考設計,明年上半年產品問世;液冷式A100 GPU亮相

Nvidia去年發表旗下首款資料中心級CPU,今年Computex公布更多Grace細節,包括4種伺服器參考設計,搶攻雲端遊戲及繪圖、高效能運算、AI訓練及推論。此外,還推出液冷式A100 GPU。

2022-05-24

| PyTorch | Apple | Metal | GPU

深度學習框架PyTorch在Mac上也可使用GPU加速

Apple Silicon Mac現在支援PyTorch使用GPU加速,因此開發者便可以在本地端,訓練更大規模的模型

2022-05-20

| 永續 | 加速運算卡 | 伺服器 | 減碳 | 機器學習 | GPU | 耗電 | 散熱

高功耗資料中心時代來臨

除了CPU與GPU,為了提升特定應用程式或服務的執行效能,伺服器搭配各種加速運算卡的機會也越來越多,隨著這些元件所承擔的運算工作日益吃重,接踵而來的耗電量、散熱需求增加狀況,勢必也將浮上檯面,成為企業在考量IT整體能源使用效率時,所無法忽視的因素

2022-03-25

| 微軟 | Nvidia | GPU | 機密運算 | Azure Confidential VM | Ampere Protected Memory

微軟與Nvidia合作將機密運算延伸到GPU

微軟將把名為Ampere Protected Memory(APM)的機密運算技術,部署到Nvidia A100 Tensor Core GPU

2022-03-24

| 微軟 | AMD | GPU | ROCm

微軟深度學習函式庫DeepSpeed開始支援ROCm平臺,在相容GPU上大幅加速大型模型訓練

微軟與AMD合作,在深度學習最佳化函式庫DeepSpeed加入ROCm技術支援,使得DeepSpeed能獲得相容ROCm的GPU,以及AMD Instinct GPU所帶來的運算加速

2022-03-23