「未來AI將能跑在所有類型的裝置上。」ARM副總裁暨客戶事業部總經理Nandan Nayampally如此說道。針對爆紅AI晶片市場,他近日來臺時也揭露ARM未來的行動AI產品戰略。

Nandan Nayampally表示,現在不只是行動裝置的處理器有這樣的能力,就算是非常小的微控制器(MCU),都已具備了基本的AI執行處理能力,如ARM Cortex-M0、Arm Cortex-M3系列等,現在已經可以在上面跑影像或語音方面的機器學習模型。

隨著越來越多主打AI功能或特色的行動處理器推出,他觀察到,開始有越來越多結合CPU與GPU功能的AP應用處理器,被運用在處理不同類型用途的AI運算工作上,比如物體偵測、語音辨識,或人臉識別等。不只這些應用處理器採用ARM架構,市面上許多具備AI功能的智慧裝置,所用的處理器也都有採用ARM架構,例如智慧語音裝置、智慧相機,或是智慧電視機等等,即便是在雲端上,他說,現在它的架構也有被使用在中國、日本的超級電腦上來做不同進階應用。

Nandan Nayampally強調,以後AI在行動裝置上將會越來越普及,「幾乎在所有裝置上都能夠執行。」至於能夠在上面跑什麼類型的AI應用,他表示,將取決於裝置的硬體。他進一步說明,機器學習(ML)和AI都是軟體,跑在硬體上,如果是簡單的AI應用,不需要經過太多運算,單以CPU或GPU就足以應付;如果需要經過高度複雜的運算處理時,則須搭配神經網路加速器(Neural Network Accelerator),來加速運算,以做為更進階的AI應用所用。

Nandan Nayampally表示,未來公司也將持續強化CPU、GPU在機器學習或AI的處理能力,不僅在設計架構上,將加入了更多指令集、功能或工具,提供機器學習、甚至深度學習更強大的支援,還會透過軟體來優化排程,以發揮出更高的使用效率,他舉例說,最近剛推出的Cortex-A76 CPU架構,在機器學習任務的執行上,就比前代A75能獲得4倍的效能提升,另外在Mali-G76 GPU方面,也比G72足足高出3倍效能表現。

不只是晶片開發設計要結合AI,ARM今年也開始聚焦神經網路加速器,它以Project Trillium全新架構推出 Machine Learning processor(MLP)與Object Detection processor(ODP)兩款全新IP系列,這是ARM今年初發表的全新人工智慧(AI)晶片家族。

前者用於機器學習加速,每個處理器的浮點運算效能高達4.6Teraflops,而且也更省電,功耗上,每瓦可達到3Teraflops浮點運算效能。後者則是用於電腦視覺運算加速,與傳統的DSP數位訊號專用晶片相比,效能提升多達80倍,並且能處理高達每秒60幀畫面的Full HD高畫質影片。

不僅如此,Nandan Nayampally也相當看好物體偵測(Object Detection)在AR、VR領域的應用發展,甚至他說,公司2年前買下Apical這家以嵌入式電腦視覺和影像應用為主的技術公司,幫助它加快切入AR、VR裝置市場,除了現有已支援視覺運算(Vision computing)的ARM產品以外,他也預告,不久後將會有下一代Vision解決方案推出。

熱門新聞


Advertisement