年初舉行的GTC大會,我們發現Nvidia執行長黃仁勳有好多封號,部分中國媒體稱他為核彈教父、AI教父,也有臺灣媒體轉載其他媒體內容時,稱他為「超越摩爾定律的男人」,欣羨愛慕之意簡直溢於言表。很多人對於Nvidia的股價也津津樂道,未來甚至可能上看300美元,而關鍵就在於繪圖處理器(GPU)的應用大行其道,不只是針對影像處理,也擴及大數據分析、人工智慧、自動駕駛車、加密數位貨幣,囊括各種新興應用領域。

然而,除了GPU,還有其他加速運算技術蓄勢待發,準備加入戰局,其中,最受矚目的技術,非FPGA莫屬,此外還有ASIC,根據Deloitte Global的預測,到了2018年底,在資料中心環境用於加速機器學習的各種運算晶片當中,FPGA與ASIC占比將超過25%,然而,在2016年的大型資料中心環境,幾乎所有的機器學習類神經網路應用,都是仰賴GPU與CPU的組合使用架構。

從GPU的銷售量來看,Deloitte Global認為,2016年用於機器學習的部分,賣出10萬到20萬顆,到了2018年應有2.5倍以上的成長,可望超過50萬顆;至於FPGA與ASIC在2018年,預估可分別賣出20萬顆和10萬顆。

若就整體機器學習加速晶片而言,Deloitte Global認為,市場規模在短短兩年之間,就會從45億美元成長到91億美元,銷售數量更是增長到4倍之高。

屆時,GPU仍將稱霸整個市場,但FPGA和ASIC能在同樣的效能需求下,提供較為省電的執行效果,並且具有更多使用彈性,能夠迅速因應多樣的工作負載情境來進行調整,因此,它們也是擴展這類應用的重要角色。

這個情勢的丕變,值得大家關注,對於應用系統開發人員、雲端服務供應商,以及企業IT基礎架構的管理者而言,必須要正視這股潮流,思考是否需要採用或擴充這類運算技術的需求,以及導入的方式與時機。

因為,當前要支撐各種新興的應用服務,不再獨尊單靠CPU來運行的架構,而是需要同時仰賴多種加速技術來幫忙。

過去,我們僅需考慮網路存取與影像處理的卸載(Offload),將這些性質迥異的存取處理作業,分別交由獨立的網路介面、繪圖運算卡、FPGA、ASIC來執行即可。

未來,對於這些加速處理的需求會越來越龐大,雖然CPU仍然能夠就近存取,但勢必要與其他運算加速技術協同運作,而且,我們需要搭配的不只是一張張加速卡或是幾顆加速晶片,而是一整臺加速伺服器、甚至是一整座的加速櫃。

而關於這部份的部署形式轉變,GPU發展最為顯著,Nvidia提出的HGX-1架構就是一例,伺服器直接連接的不只是硬碟擴充櫃(JBOD)、快閃儲存擴充櫃(JBOF),也可能是GPU擴充櫃(JBOG)。

而FPGA和ASIC未來是否走向如此巨大的部署形式,目前還不明顯,但對於軟體開發的部份,也帶來新的可能性。

因為,過去若要用到硬體加速,端看處理器廠商是否提供足夠的支援,雖然也能運用FPGA和ASIC來實現,但僅限於特定用途的設備,以企業IT領域來說,最常見的應用形式是網路安全設備、網路交換器,我們很難在一般的應用系統裡面直接使用。

然而,近年來有越來越多的雲端服務供應商,想要基於這些加速運算技術,來發展與經營相關的服務,例如,所謂的FPGAaaS(FPGA as a Service),目前已有AWS和阿里雲等兩家業者提供這類型服務,可以因應一般企業少量開發的需求。

同時,大型企業也可以考慮自型開發與使用FPGA與ASIC,而這股風氣也是先從大型雲端服務商開始吹起。例如,AWS、Google等業者都傳出自己制定CPU規格、並交由處理器廠商生產的消息,而對於FPGA與ASIC架構的採用, 也躍躍欲試,微軟發展的Project Brainwave就是一個例子,當中整合Azure Machine Learning服務,以及英特爾FPGA硬體晶片。

專欄作者

熱門新聞

Advertisement