使用者在賣場購物時,AlterEgo可以加總購買商品的價格。

圖片來源: 

MIT

麻省理工學院媒體實驗室近日發表了全新的人機互動模式,打造能「聽」見腦中聲音的穿戴式AI裝置系統AlterEgo,使用者不需要將意圖講出來,也不需要做任何動作,只要在心中默唸,穿戴裝置會透過神經肌肉訊號,重組使用者的話,再透過AI虛擬助理系統,從耳機給予使用者回應,讓使用者與虛擬助理互動時保有隱私。

過去的人機互動模式不外乎是透過手勢、觸控或是語音來完成指令,這次MIT團隊打造的AlterEgo系統不需要透過任何聲音,能夠擷取使用者神經肌肉的訊號,來重組語句,透過神經網路分析使用者的自然語言,接著給予回覆,讓使用者可以靜默地與虛擬助理互動。

MIT研究團隊在論文中指出,AlterEgo是新穎且支援雙向溝通的無聲語音穿戴式裝置,且是用非侵入式的方式,透過使用者的皮膚收集神經肌肉訊號。

此外,研究團隊也表示,過去偵測使用者神經訊號來分析語句的系統,需要透過明顯的肌肉特徵來分析,像是明確的發音嘴形或是臉部表情,但是,AlterEgo可以在使用者不張開嘴巴,也沒有發出任何聲音的情況下,準確地辨識使用者在心中默念的話,目前模型的平均準確率為92%。

AlterEgo可被應用在許多場景,例如使用者在賣場購物時,AlterEgo可以加總購買商品的價格,或是控制智慧家電裝置,像是開燈、開電視等,另外也能報時間、設定行事曆。

 

以心中的聲音和AI語音助理交談:

 

熱門新聞

Advertisement