非營利組織生物科學研究機構Allen Institut啟動了體現人工智慧框架AllenAct,其重點放在體現人工智慧的可重現性研究,提供了模組化和彈性的研究環境。

一般常提到的人工智慧,可推理並解決抽象問題,而體現人工智慧(Embodied AI)是人工智慧的一個子領域,目的是要讓人工智慧能移動,透過與真實世界互動,進而完成任務,越來越多研究人員相信,體現人工智慧才是未來有能力輔助人類的人工智慧技術,諸如請機器人到特定位置拿取特定物品,到協助殘障人士在交通運輸系統內移動的裝置,都是體現人工智慧的範疇。

而體現人工智慧在最近已經有了長足的進展,這要歸功於增強學習、電腦視覺、自然語言處理以及機器人的發展,目前體現人工智慧的模擬環境有AI2-THOR、CARLA,還有臉書的Habitat等,Allen Institute研究人員提到,雖然多元的工具能夠促進技術的發展,但同時也使得社群分裂,在某一個環境訓練完模型後,要在另一個環境中測試,需要花費大量的心力,而這個狀況對科學發展不利。

因此Allen Institute便發布了體現人工智慧框架AllenAct,這是一個模組化且靈活的學習框架,能夠符合體現人工智慧研究的需求,AllenAct提供豐富的體現環境、任務和演算法等支援,支援像是iTHOR、RoboTHOR和Habitat等體現環境,AllenAct中的任務和環境是分離的,研究人員可以在同一個環境中,執行各種任務。

AllenAct支援的演算法包括PPO、DD-PPO和A2C,還包括了離線訓練演算法offline IL,而AllenAct也提供開箱即用的視覺化解決方案,用戶能將代理第一人稱和第三人稱檢視圖,和中介模型張量整合到Tensorboard。另外,AllenAct還有大量文件、教學、起始程式碼和預訓練模型等資源,並提供PyTorch優先支援。

熱門新聞

Advertisement