圖片來源: 

iThome

Nvdia不只為了搶攻AI市場而推出了整套式GPU伺服器,甚至為了加速建立深度學習與AI所需開發和測試的基礎設施環境,因而趕在今年1月搶先開源釋出了Nvidia Docker函式庫工具測試版,目的是希望讓GPU也能支援新世代IT架構關鍵技術Docker,好讓企業能輕易地調度分配伺服器裡的GPU資源。

這個新釋出的Nvidia Docker儲存庫,內含有用來建立和執行Docker影像檔所需的工具。用戶只需安裝Nvidia driver與Docker後,即可將每一個從CPU轉移到GPU執行的運算任務,各別打包至隔離的虛擬環境之中,除了可以更彈性靈活分派和調度GPU內的運算資源,以提供大量密集運算需求的使用外,並也可跨不同OS平臺使用。

GPU加速應用開始能支援Docker

Nvidia Docker至今已歷經了3個測試版本的更新,在最新釋出的1.0.0 beta 3版中,除了正式支援Docker 1.10和Docker plugin API v1.2以外,也擴大支援364個驅動程式和提供REST API的優化。截至目前,企業已經可以在Nvidia的統一計算架構(Compute Unified Device Architecture,CUDA)當中開始支援Docker,並且可在任一個GPU架構的基礎設施內,來部署Docker化的GPU加速應用。

目前也開始有一些新創公司打算將GPU與Docker結合,例如一家英國系統軟體新創Cake Solutions去年就在官方部落格示範用Nvidia 的深度學習GPU訓練系統(Deep Learning GPU Training System,DIGITS),來安裝執行Nvidia Docker。

此外,今年GTC大會中也有一些關於結合容器(Container)技術的應用實例,例如Bitfusion這家以提供自動加速應用為主的網路公司,就現場介紹可結合容器技術的GPU加速應用。

不過即便GPU開始支援Docker,Nvidia解決方案架構暨工程副總裁Marc Hamilton也坦言,至今GPU只能部份支援Docker,還無法做到全面支援。

Marc Hamilton解釋,這是因為Docker原本就是設計在CPU當中使用,所以運用在CPU時可以獲得很好的利用,但當使用於GPU時,因為GPU與CPU兩者晶片設計架構的不同,所以在使用上就會遇到一些限制。

不過他表示,接下來將擴大與Docker社群的合作,來持續優化在GPU內執行Docker的環境,並以讓GPU能全面支援Docker為目標,最終希望讓GPU做到跟CPU一樣的Docker化。

未來DGX-1執行環境也能用Docker

此外,Marc Hamilton表示,未來也計畫在Nvidia Docker新版本釋出時,開始讓DGX-1執行環境也能支援Docker,希望讓企業未來在以DGX-1來進行深度學習與AI應用時,可以迅速地將一些深度學習框架,例如TensorFlow、Caffe等,通通打包並移轉至新系統當中。

甚至,Nvidia未來更進一步要做到的是,還打算將目前存有超過400個科學相關運算應用,之後也都能在DGX-1 上使用Docker。

Nvidia解決方案架構暨工程副總裁Marc Hamilton坦言,至今GPU只能做到部份支援Docker,還無法做到全面支援,他解釋,這是因為Docker原本就是設計在CPU當中使用,所以可以獲得很好的利用,但GPU就不是如此。不過他也表示,接下來將持續和Docker社群來合作,未來將以讓GPU全面支援Docker為目標。

 

【相關報導請參考「GPU靠AI直攻運算龍頭」專題】

熱門新聞

Advertisement