Google更新其人工智慧開發平臺Coral,不只發布新的編譯器版本支援訓練後量化(Post-Training Quantization),還加入了TensorFlow Lite委派(Delegate)API,Edge TPU也能夠用來加速使用TensorFlow Lite直譯器API的模型。

Coral是一個人工智慧測試平臺,包含了軟體以及硬體,開發人員可以在搭載Edge TPU的Coral開發板上建立、訓練和執行神經網路程式,有助於設計應用程式原型,以便後續正式產品開發。硬體除了有Coral開發板之外,周邊硬體還有一個可透過MIPI界面連結的500萬畫素相機,和可與其他Linux系統整合使用的外接Coral USB加速器,而軟體開發工具方面,主要由TensorFlow與TensorFlow Lite發展而來。

現在Coral研發團隊更新Coral的開發工具,編譯器更新至2.0版本,新增支援使用訓練後量化技術建立的模型。Tensorflow團隊提到,訓練後量化可以將使用浮點數訓練的模型,量化為Int 8的模型,優點除了可以縮小模型大小之外,也可以加快Coral裝置中搭載的Edge TPU執行模型運算的速度。

之前,開發者的模型要獲得Edge TPU良好的加速效能, 需要使用官方提供的Edge TPU Python API或是C++撰寫程式碼,不過現在官方發布了TensorFlow Lite委派,讓模型即便使用TensorFlow Lite直譯器API,也可以得到Edge TPU 的加速。Coral研發團隊提到,TensorFlow Lite委派API目前還是個實驗性功能,他允許TensorFlow Lite直譯器將部分或是全部圖執行(Graph Execution)委派給其他執行程式,也就是Edge TPU。

另外,開發工具中的Edge TPU Python函式庫也更新到了2.11.1版本,加入了遷移學習(Transfer Learning)的支援。新的裝置反向傳播API讓開發者,可以在圖像分類模型的最後一層執行遷移學習,而在裝置上是以CPU執行,並以接近即時的速度執行遷移學習,為模型加入遷移學習,開發者不需要重新編譯模型。

Coral研發團隊也與AutoML團隊合作,共同發布了一系列圖像分類模型EfficientNet-EdgeTPU,這些模型是基於EfficientNet架構,專為EdgeTPU最佳化,可用超小型的模型達到伺服器端模型才能做到的圖像分類程度。


Advertisement

更多 iThome相關內容