為了讓開發者在Android應用程式中,更方便地加入機器學習功能,Google建構了Android機器學習平臺,不只提供最新的推理元件更新,同時也對所有裝置最佳化推理效能,開發者可以跨Android版本使用一致的機器學習推理API。

裝置上機器學習帶來許多優點,不只可以獲得更低的推理延遲,也能以更好的效率使用電力,裝置能夠在沒有連上網路的情況下,繼續使用機器學習功能,但是Google發現,要在裝置上部署機器學習模型,開發團隊通常會遇到數個常見的問題。

第一個問題是應用程式的大小,由於應用程式受容量限制,因此如果必須要綑綁僅用於機器學習功能的函式庫,可能會產生龐大的管理成本,第二個問題則是技術的複雜性,因為裝置上與伺服器上的機器學習技術存在很大的差異,由於計算環境高度異構,導致效能、穩定性和準確性也都有很大的不同。第三則是裝置的支援性,開發人員為了要最大程度覆蓋裝置,因此傾向使用較舊的API,而這限制最新機器學習技術的使用。

為了解決這些問題,Google推出Android機器學習平臺,這是一個可更新且完全整合的機器學習推理堆疊,該平臺提供開發者Android裝置端最新的推理二元檔案,而這將能夠降低APK檔案的大小。

Google也對所有裝置進行效能最佳化,官方提到,他們會最佳化機器學習推理與Android的整合,能根據裝置自動作出效能決策,包括在可用時啟動硬體加速。同時Android機器學習平臺也最大程度降低開發複雜性,其提供跨Android版本一致的API,並且透過Google Play服務提供定期更新,因此更新節奏與Android作業系統發布周期分離。

官方提到,Android機器學習平臺在Android裝置端內建TensorFlow Lite for Android,也就是說,TensorFlow Lite已經可以在所有配備Google Play服務的裝置上使用。如此開發人員就不需要在應用程式中加入Runtime,進而減少應用程式的容量,此外,TensorFlow Lite for Android會使用模型中的元資料,來自動啟用硬體加速,使應用程式可以在每臺Android裝置獲得最佳效能。

自動加速是TensorFlowLite for Android的新功能,該功能供開發者考量效能、準確性和穩定性,創建模型許可名單,這份許可名單能在模型執行的時候,決定開啟硬體加速與否,而為了要使用許可名單,開發者需要提供額外的元資料來驗證正確性。這項功能會在今年稍晚推出。

除了定期更新TensorFlow Lite for Android之外,Google還會更新在作業系統外的Neural Networks API,並且保持各Android版本的API維持相同規範。另外,Google還正與晶片廠合作,在作業系統外,直接向裝置提供最新的硬體驅動程式,這使得開發人員可以大幅減少需要測試的裝置數量,目前高通是Google的第一個合作夥伴。


熱門新聞

Advertisement