Nvidia現在不只賣GPU卡,甚至最近也揭露了耗費9個月所完成自駕車研發的新成果。其中,Nvidia借助了深度學習神經網路CNN與機器學習框架Torch7作訓練,因而讓無人汽車在短時間內就具有跟其他自動車同樣的行駛功能。

圖片來源: 

Nvidia

Nvidia現在不只靠GPU搶攻深度學習、AI與VR/AR市場,近來也積極投入無人汽車的研究,最近Nvidia更首度揭露了耗費9個月所完成自駕車研發的最新成果。Nvidia借助了深度學習神經網路CNN與機器學習框架Torch7作訓練,因而讓無人汽車在短時間內就具備有跟其他自駕車一樣的自駕功能,這項成果最近也首度在美國康乃爾大學的電腦科學類研究網站上公開發表。

Nvidia自駕車專案展示有新成果

Nvidia在去年發起的一項Dave-2自駕車專案中,分別使用了來自2016年出產的Lincoln MKZ與2013年系列的Ford Focus共兩款車輛進行自動駕駛的模擬與道路實測。Nvidia在這2輛車內都分別裝有3組相機鏡頭,還有一個可儲存資料用的SSD硬碟,並都使用Nvidia Drive PX做為車載電腦系統的核心。

而從Nvidia自駕車研究小組所共同撰寫發表的論文內容來看,截至今年3月底,Nvidia僅用了將近72個小時蒐集的環境數據資料,持續做為汽車的機器學習訓練後,已成功能讓汽車自動安全行駛在高速公路或一般道路。而之所以能用較少的資料作訓練,就可讓汽車自動開上路,甚至不需要人為介入操控,Nvidia解釋,背後的關鍵正是利用了卷積神經網路(Convolutional Neural Network,CNN),來建立一套可用於無人汽車訓練的深度學習神經網路模型。

CNN是一種前饋式神經網路(Feed-Forward Neural Network),其特色是可以直接輸入原始來源的圖像,而避免對圖形進行複雜的前處理過程,例如特徵提取和資料重建等。CNN因為採用局部連接(Sparse Connectivity)的神經網路形式,並透過權值共享(Shared Weights)的方式來減少神經元的連接數量,因而比起傳統全連接的神經網路,可以用較少的參數,更快速的完成學習訓練過程。CNN過去在圖像處理一直獲得很好的發揮效果,也常使用於語音分析和圖像識別的相關研究,現在也被運用於無人汽車的學習訓練用途。

Nvidia自駕車研發團隊這次一共建構了深度多達9層的CNN神經網路架構,並連結了將近2,700萬條神經元,以及使用了25萬個參數,才打造出可用於自動駕駛車訓練的深度學習預測模型。

當以無人汽車進行深度學習訓練時,會先透過將相機捕捉到的道路環境影像直接輸入至CNN神經網路模型內,並經過模擬計算後,再將產生出的運算結果,拿來和實際人類駕駛的操控行為,例如方向盤轉動角度等,進行兩相比較後,再重新不斷修正演算法模型,來提高CNN預測的準確度。而至今,這些用來做為CNN模擬訓練而使用的環境影像時數,如果換算成距離的話,總長約有100英哩。

除此之外,Nvidia還借助了另一個開源機器學習框架Torch7,來提高汽車行駛判斷的能力,以便能將從相機蒐集到的周圍道路資訊,包括來往車輛、交通號誌,以及各式障礙物等,經過機器學習演算法計算後,來決定接下來的行駛策略,是要變更行駛路線,抑或是調整車速快慢等。

根據Nvidia的說明,這輛自駕車經過道路實測後,初期已能在美國紐澤西高速公路上完成9成以上的自動化駕駛,甚至少數路段更達到全程自動化行駛,即使是在不同氣候環境條件下,如雨天等,汽車也能正常行駛。

除了成立無人汽車研究團隊來開發自駕車外,Nvidia最近也宣布將參與協助打造首輛賽車用的無人汽車計畫,該賽車完成後將參加Formula E電動方程式即將在2016至2017年賽季首度舉辦的Roborace自動駕駛汽車大賽,並挑戰要在1小時內連續跑完數十圈以上的賽道。

而從Nvidia目前所公布關於這輛賽車的架構設計圖,也顯示出這輛無人賽車之後也將採用Nvidia新一代自動駕駛平臺Drive PX2,做為汽車電腦系統核心。這場專業無人車賽的最後決勝關鍵,將決定於哪隻隊伍可以運用機器學習,甚至借助深度學習的類神經演算法,以發揮出更準確的駕駛判斷能力。


Advertisement

更多 iThome相關內容