Linux基金會底下的AI基金會(Linux Foundation AI Foundation,LFAI)技術諮詢委員會同意託管IBM的可信人工智慧(Trusted AI)專案,因此包括用來處理機器學習偏差的AI Fairness 360工具包,以及可讓人工智慧抵禦攻擊的Adversarial Robustness 360工具包,都將從IBM移往LFAI。

IBM在公平機器學習領域發展很早,其所發展的偏差緩解演算法被大量引用,IBM透過先進的機器學習方法,減少特定群體以及個人在機器學習中受到歧視,而這些研究被整合創建成AI Fairness 360開源工具包,可以用來檢測和減輕機器學習模型以及資料集的偏差,其提供了約70種度量標準來檢測偏差,還有11種演算法能夠減輕資料集和模型中存在的偏差。

而Adversarial Robustness 360(ART)工具包則是用來強化機器學習安全性的Python函式庫,ART提供了一些工具,讓開發者能夠評估、防禦和驗證機器學習模型,使其能夠抵禦各類針對機器學習模型和應用程式的攻擊,ART支援TensorFlow、Keras、PyTorch、MXNet和scikit-learn等各種熱門的機器學習框架。

另外,IBM也將AI Explainability 360(AIX360)工具包貢獻給LFAI,該工具提供機器學習模型可解釋性的各種演算法、程式碼、指南以及範例,AIX360會透過互動式體驗,介紹各種概念以及功能。

IBM除了貢獻這些工具包,在去年的時候,也與LFAI合作,成立可信人工智慧委員會,致力於定義和實作人工智慧部署的信任原則,並且希望在Apache Nifi或Kubeflow Pipelines中整合Trust 360工具包。

熱門新聞

Advertisement