圖片來源: 

微軟

微軟研究院釋出解開AI黑盒子的工具包lnterpretML,提供開發人員多種方式來實驗AI模型和系統,進一步解釋模型,lnterpretML工具包含有許多可理解的模型和多種方法,能夠針對黑盒子模型的個別預測行為產生解釋。

微軟指出,當AI系統影響人類的生活時,使人們了解AI的行為就相當重要,了解AI模型的行為,也能讓資料科學家為模型除錯,而理解模型如何推論,則可以使設計模型的開發者傳遞模型如何運作的資訊給終端使用者。

一般模型的準確度和可理解性無法兼顧,微軟研究院開發出一套兼顧準確度和理解性的演算法Explainable Boosting Machine,透過現代機器學習技術,像是Bagging和Boosting分類方法,來改善傳統的廣義加成(Generalized Additive)模型。

開發者可以用lnterpretML工具包,比較不同的方法產生的解釋,並選出一個最適合的方法,透過在不同的方法之間比對一致性,能夠協助開發者了解該解釋的可信度。


Advertisement

更多 iThome相關內容