電腦視覺結合機器學習技術,機器人已能在簡單的環境下推動物體。

圖片來源: 

UC Berkeley

加州大學柏克萊分校研究員近期發表研究,新的機器學習技術已足以讓機器人自己想像行動後的結果,這項進展能夠讓機器人在未經歷過的環境執行抓取和平推等動作操作物體移動。研究團隊認為,這項技術將能幫助自駕車在行車時預測將發生的事件,或是讓輔助駕駛更加智慧。不過,目前還只是初期的雛型,只能在簡單環境中對物體自主操作。

這項稱為視覺預知(Visual foresight)的技術,讓機器人可以預測攝影機接下來看到的一系列圖像,雖然在目前初期的成果,機器人只能預測幾秒鐘後的結果,不過這足以讓機器人在桌上避開障礙物的移動物體。機器人在沒有人監督下學習,藉由抓取物體在桌面探索,經過這樣的學習階段後,機器人就能建立預測模型,用於操作全新未見過的物體。

而機器人的核心技術是基於卷積循環影像預測(Convolutional recurrent video prediction)或是動態神經平流(Dynamic neural advection,DNA),DNA模型用來預測每一幀影像中的畫素變化,而最新的結果,已能讓機器人在障礙物四周滑動玩具,或是數個物體重新歸定位。卷積循環影像預測則需要人為介入標記數以百萬計的影像,而他們也會將這些結果用於預測模型資料。

加州大學柏克萊分校Levine實驗室學生Frederik Ebert表示,人類一生中自己學習了數百萬種的物體互動, 而他們則證明機器人系統也可以藉由自主的收集資料,學習廣泛適應性的技能,尤其是推物體的動作。

 

介紹影片:

 

 

熱門新聞

Advertisement