Google更新了機器學習開發套件ML Kit,最新版與Firebase脫鉤,專注提供裝置上機器學習功能,並且將加入兩個新功能,分別是實體擷取以及姿勢偵測,而且Google還將讓ML Kit支援自定義模型。Google建議開發者,應該更新現有採用原始ML Kit裝置上API的應用程式,搬遷使用新版本。

ML Kit是Google在2018年的I/O大會上發布,讓開發人員在行動應用程式中,可簡單地添加機器學習技術,目前Android和iOS上,共有2.5萬個應用程式使用ML Kit,應用電腦視覺以及自然語言處理功能,開發者只要呼叫API,就能即時辨識文字、掃描條碼、即時追蹤並分類物體,或是翻譯文字。由於開發者抱怨,ML Kit的原始版本和Firebase緊密整合在一起,難以被靈活地應用,因此現在Google讓ML Kit SDK獨立出來,所有裝置上API將不再需要仰賴Firebase專案,但開發者仍然可以在應用程式中,結合使用ML Kit與Firebase。

Google提到,這項更改可以讓ML Kit更能支援裝置上機器學習應用,而且比起雲端機器學習運算,更快速也更具隱私安全。因為機器學習運算在裝置上執行,因此沒有網路延遲,也就是說,模型每秒可以預測的圖像以及文字變得更多,而且因為不需要存取雲端資源,機器學習功能可以離線使用,使用者裝置不用一定要連接網路,此外,由於所有處理都是在本地端執行,沒有敏感資料被送往伺服器,更具隱私安全。

Google也即將在ML Kit加入實體擷取以及姿勢偵測功能,ML Kit將能夠偵測文字中的實體,並將其轉為可操作物件,ML Kit支援電話號碼、地址、付款帳號、追蹤號碼和日期時間偵測;而在姿勢偵測上,則支援33個骨骼點的低延遲姿勢偵測,追蹤的部位包含手以及腳掌。開發者可以加入早期存取計畫,搶先試用新功能。

ML Kit提供開箱即用的機器學習解決方案,但是當開發者需要量身訂做的功能時,便需要使用自定義模型,因此Google也將讓ML Kit支援自定義模型,允許開發者換掉ML Kit預設的模型,替換成自己建置的TensorFlow Lite模型,這項功能將從圖像標記、物體偵測以及追蹤API開始,現在開發者已經可以使用自定義圖像分類模型。


Advertisement

更多 iThome相關內容