Google發布了TensorFlow受限最佳化(TensorFlow Constrained Optimization,TFCO)函式庫,這是一個監督式學習函式庫,可用多指標增加機器學習模型的限制,解決模型公平性的問題。

機器學習技術被用在各種領域上,許多監督式機器學習的應用,已經在日常生活中產生重大影響,因此模型的公平性問題也愈來越重要,公平性研究人員認為,僅滿足最小化單個損失函式(Loss Function)難以解決廣泛的社會問題,公平性需要考量更多競爭因素。Google提到,但即便是完全考慮了這些因素,也可能有諸多原因使系統無法使用,像是因為偽陰性造成的問題,可能比偽陽性還要嚴重。

為此,Google釋出了可最佳化公平限制的TFCO函式庫,來解決這個問題,TFCO能夠以各種不同指標訓練機器學習問題,這些指標諸如特定族群成員的預測精準度,以及與年齡或性別有關的癌症診斷召回率(Recall)等。Google表示,雖然這些指標都是簡單的概念,但TFCO提供使用者最小化和限制這些概念的能力,可公式化和解決許多公平性問題,也使得機器學習更加通用。

Google以銀行貸款的例子來說明TFCO的功能,銀行會訓練分類器來決定是否放款給客戶,使用的訓練資料集,由能夠償還貸款與無法償還貸款人的資料組成,要在TFCO中設定這個問題,使用者需要選擇一個目標函式(Objective Function),獎勵模型同意放款給會償還貸款的人,並加入公平性限制,避免模型拒絕放款給部分受保護的人士。

在沒有公平性限制時,TFCO最小化線性模型分類器的總體錯誤率,可能產生如下圖般的決策邊界。

Google表示,這個可能是一個良好的分類器,但是在部分應用上可能被認為不夠公平,因為陽性標籤藍色範例比陽性標籤橘色範例,更容易收到陰性預測,而這違反機會均等原則,因此只要添加機會均等限制,則分類器便會更公平,呈現下圖的樣子。

在2018年的時候,Google執行長Sundar Pichai發布了Google的人工智慧原則,建立Google應用人工智慧的規範,而這個TFCO函式庫,則能讓Google的人工智慧原則付諸實現,還能進一步引導道德發展和人工智慧的研究與實踐。Google希望藉由TFCO,開發人員能更好地辨識模型可能存在的風險和危害,並設定限制條件確保模型獲得理想的結果。


Advertisement

更多 iThome相關內容