圖片來源: 

何維涓_攝影

亞洲微軟研究院於今日舉辦Academic Day 2017,聚焦於AI結合多項技術發展的新應用,多位微軟研究員都一同出席,發表了多項最新的研究。其中,微軟亞洲研究院首席研究員Katsu Ikeuchi專精於電腦視覺與人工智慧,這次更是在演講中展示,機器人能夠紀錄並模仿臺灣原住民舞蹈,中央研究院資訊科學研究所研究員Mark Liao則是展示將觀眾錄下的片段演唱會影片,重新分析影像和音質,創造出不重複且高品質的完整演唱會影音,科技部前政務次長林一平發表在臺中、新竹和臺南科學園區試行的Smart Science Park專案,能夠透過多項IoT裝置,利用電腦視覺和人工智慧技術,提供更便利的服務給使用者。此外,還有由微軟實習生所創作的10項多元創新應用Demo。

「AI與人剛好互補,」微軟亞洲研究院院長洪小文表示,AI硬記的能力很強,剛好是人類比較弱的地方,而人類擁有感知能力、創造力和意識,正是AI沒有的能力,他認為有許多問題是需要AI加上HI(Human Intelligence)協同合作,而目前AI最擅長的則是處理重複性高的工作,且必須在沒有外來因素影響的封閉式環境下,若是不常遇到的問題,由於收集的數據不足,無法訓練模型,且投入成本過高也不適合採用。

不過他也坦言,AI目前的技術離人腦的運作模式還有一大段落差,他認為,由於大家對人腦的運作了解還太少,且人類腦部許多複雜的運作是無從解釋的,AI要達到模仿人腦短期之內是不太可能。

Katsushi Ikeuchi利用拉班舞譜(Labanotation)的原理分析人類肢體動作,將人的動作分為8個方向,再透過機器學習演算法,讓機器人用電腦視覺的技術記錄下拆解過的動作資訊,再轉化為生成動作的程式,讓機器人可以模仿舞蹈動作,Katsushi Ikeuchi展示了機器人跳民俗舞蹈和臺彎原住民舞蹈的影片,他認為可將機器人跳舞的研究套用在許多領域中,像是居家陪伴或是醫療照護等,甚至可以打造服務型的機器人。

Katsushi Ikeuchi也看見臺灣發展新科技的機會,他認為,雖然臺灣市場規模雖然較小,但是卻有可以快速轉變的優勢,因此,若要在臺灣嘗試發展新技術是非常有潛力的。

另外一項AI創新的研究則是Mark Liao發表的演唱會影片重組,他將觀眾參加演唱會後錄製的片段影片,拼成一個完整高品質的影片,由於拍攝的時間、取景、設備不同,他則要面臨影片品質的統一、影片片段不重複等問題,要如何選影片更是一大學問,光是要選影片音質好的片段,還是畫質好的也是個問題,他將每段影片利用六大鏡頭拍攝方式分類,再經過深度學習演算法挑選出最適合的片段,最後再將片段的影片,拼成一個擁有完整內容,且不重複的影片。

微軟實行生所創作的10項多元創新應用Demo中,有項AI應用是讓系統可以看圖作詩,這項研究是由臺灣大學徐宏民教授、林守德教授和亞洲研究員宋睿華一同指導,臺灣大學資工研究所一年級研究生吳肇中與網路多媒體研究所畢業生鄭文峰去年在微軟實習時,一開始發想是要用程式創造小說,後來因為複雜度較高,且要維持故事情節一致性較為困難,轉而讓程式自動寫新詩,並加入圖片的想法,讓系統輸入一張圖片時,可以自動產生與圖片主題相關的新詩。

他們收集了519為詩人的作品,高達9萬行的詩句作為資料集,先用電腦視覺技術將圖片擷取出多個物件,找出相對應的關鍵字,再利用以詩句常出現的關鍵詞集濾器出詩句常見的詞彙,以這些詞彙做延伸,創造出4句的新詩,系統自動產生出來的詩,首先由他們內部人工判斷句子的流暢度,等系統較穩定後,再請專業的詩人評分,這項研究得到微軟小冰專案經理注視,在小冰的服務中限時開放6小時讓使用者使用,得到廣大迴響。

另外,他們還將系統做的詩投稿多項比賽,最終獲得北京晨報、信報和長江詩歌三大媒體刊登,他們也化名在各大文學論壇發表新詩,大多的人都反應寫的很好,難以察覺是機器所寫。

另一個有趣的應用是Seeing Bot,透過鏡頭的影像,可以即時顯示畫面的描述文字,像是一個人正在滑雪。開發團隊收集一百萬支影片,透過機器學習,能分析大約400多個動作,即時地自動產生對影片的描述。不過,目前還不能辨識性別。

熱門新聞

Advertisement