經濟新潮社

谷歌和臉書之類的大型科技公司在這方面必須肩負起某種責任。就算它們提供的這些服務有很多是免費,它們也有義務避免讓成見永世長存。科技公司所宣揚的迷思在於,演算法中不包含無意識的人為偏見,它是超然顯示出最佳的結果。這樣的謊話讓科技大廠規避了為本身的演算法負責,並為它們免除掉了解決問題的麻煩。

谷歌的研究主管彼得.諾維格(Peter Norvig)曾表示,人類確實是很拙劣的決策者。行為經濟學家發現,我們充滿了偏見,而且屢屢會行事不理性。假如一不小心,我們所建造出的機器就會跟自己一樣帶有偏見。事實上,現今的演算法常常比人類還糟。不像人類的是,有很多演算法並不能解釋自己是如何形成決策,它們是光給答案的黑盒子。對於人類,我總是可以問他為什麼會形成特定的決策。但對於現今大部分的人工智慧,我一定要接受它所給的答案。

不道德的COMPAS

假如我們沒有採取堅決的行動來加以限制,到了2062年時,演算法的偏見將遍布各處。還有很多例子則證實了,它已經在挑戰我們的社會。我們來看一個美國的例子:北足尖(Northpointe)所發展出名為COMPAS的機器學習演算法。這是透過歷史資料來訓練,以算出遭到定罪的犯人會再度犯罪的或然率。

現在你就能用這樣的機器學習演算法來鎖定保護管束機關,並幫助最容易回籠的人遠離牢獄。我猜想,鮮少有人會不認同,這是在善用科技,它可能會使社會成為更好與更安全的地方。但COMPAS並不是這樣使用。法官是要用它來幫忙決定判刑、保釋和保護管束。不用說,這就麻煩多了。程式真的能跟有經驗的法官做出同一種決定嗎?在決定某人的刑罰時,它能考慮到人類法官會去考慮的所有細微因素嗎?

暫且假定到2062年時,我們就有電腦程式能考慮到所有這些細微因素,而且程式事實上比人類法官還準確。我們找得到正當理由來讓人類法官繼續決定判刑嗎?我們沒有道德義務要把這樣的決定交給優越的機器嗎?

這件事有個真正的爆點。調查機構ProPublica在2016年的研究中發現,COMPAS對於黑人被告會再度犯罪的預測比實際上要來得頻繁。在此同時,它對於白人會再犯的預測則不如實際上來得頻繁。於是因為程式有偏見,黑人遭到不當監禁很可能就會比白人來得久。會再犯的白人則很可能會獲釋而回到社會上。我非常懷疑北足尖的程式人員是有意讓COMPAS帶有種族偏見。但它就是有。

我們並不確知為什麼它有偏見。基於商業上的原因,北足尖拒絕透露COMPAS是如何運作的細節。這樣的遮掩心態本身就很麻煩。不過我們倒是知道,程式是透過歷史資料來訓練,而歷史資料很可能就帶有種族偏見。種族並不是輸入項目之一,但郵遞區號是。而在很多地方,這都是種族的良好替代指標。或許是警察到黑人鄰里巡邏得比較多,所以黑人比較有可能被抓到犯罪?或許是警員有種族偏見,而比較有可能對黑人攔查?或許是貧窮會引發很多犯罪,而在某些郵遞區號代表有較多窮人居住,我們等於只是在懲罰貧窮?

一旦辨認出像這樣的機器偏見,我們就能試著來消滅它。我們必須決定,讓機器學習程式的預測不帶種族偏見是什麼意思,然後確保它所受的訓練有避開這樣的偏見。只不過就算我們這麼做,該不該把這樣的決定交給機器仍有待商榷。剝奪人的自由,是社會最困難的決定之一。我們不該等閒視之。當我們把這樣的決定外包給機器時,就是交出了人性中的重要部分。

演算法歧視

如我們所見,演算法的決定可能會帶有偏見的一個原因在於,它是拿帶有偏見的資料來訓練。COMPAS程式所受的訓練是要預測誰會再犯,但卻不是拿有哪些犯人實際再犯過的相關資料來訓練。我們並不曉得誰會再犯,有些人會再犯但不會被抓到;我們所知道的只有遭到逮捕和定罪的犯人。因此,訓練資料裏或許就會含有種族和其他偏見,並反映在程式的預測上。

麻省理工學院媒體實驗室(Media Lab)的研究所研究員喬依.布奧拉姆維尼(Joy Buolamwini)創立了演算法正義聯盟(Algorithmic Justice League),來挑戰決策軟體的這種偏見。身為黑人的她發現,電腦視覺演算法在辨認她時很吃力;為了受到辨識,她甚至出招戴上了白色面具。她把帶有偏見的資料,列為這個問題的來源:在人臉辨識的社群內,你有專門針對各種演算法來顯示效能的基準資料集,使你能加以比對。有個假設是,假如在基準上表現良好,那在總體上就會表現良好。但我們卻沒有質疑過基準的代表性,所以假如我們在那個基準上表現良好,我們就會給自己錯誤的進步觀。現在來看,它似乎非常顯而易見,但在研究實驗室的工作上,我明白你要做「現場測試」,要很快把這拼湊在一起,有截止期限,我能理解這些扭曲為什麼會發生。蒐集資料不是件容易的事,尤其是多元的資料。

人臉辨識所使用的最大基準之一,是2007年所發布可公開取得的人臉辨識資料集「Labelled Faces in the Wild」(LFW)。內含一萬三千多張從網路新聞報導中所蒐集來的人臉圖像。在反映出所發布的時間下,最常見的臉就是小布希(George W. Bush)。資料集有七七.五%是男性,八三.五%是白人。非常顯而易見的是,出現在新聞裏的人並不能代表較為廣大的人口。

不過在電腦視覺的社群內,有的所使用的圖像集就比較多元了。舉例來說,在2013年所發布的「10k US Adult Faces Database」(萬張美國成人臉部資料庫)含有一萬零一百六十八張臉,在設計上完全符合美國的人口結構分布(所根據的變項像是年齡、種族和性別)。臉書則有數十億張照片可供它的DeepFace研究之用:因為註冊臉書的人幾乎個個都會上傳照片。臉書真的是非常大本的「臉書」。所以缺乏多元的訓練集是否抑制了人臉辨識,這絲毫不明朗。

還有一個簡單的因素或許會導致這樣的偏見持續下去。而且對許多好心的自由派來說,它或許比較棘手一點。有事關人類的證據是,比起來自本身所屬族群外的人,人去辨認來自本身所屬族群內的人會強得多,這稱為跨種族效應,不同的年齡群內部和之間也有類似的效應。所以人臉辨識軟體有可能正在複製這點,有一個可能的解決之道是,針對不同的種族群和不同的年齡群來訓練相異的人臉辨識演算法。

語音辨識就有個相關的現象。如果要讓男性和女性的聲音都達到良好的準確度,你就需要不同的軟體。所以同理可證,人臉辨識的種族偏見不見得是因為資料有偏見,而只是因為我們需要用不同的程式來辨識不同的臉。

2062年:哲學的黃金年代

我們在2062年可能面臨的挑戰,有很大一部分是由遠比我們要懂得思考的機器所形成的挑戰,數位人(Homo digitalis)必須去解決的挑戰。

有鑑於電腦有多一板一眼,我們在價值上必須比以往更精準,因為我們給予人工智慧系統的決定能力會衝擊到我們。到2062年時,每家大公司都會需要哲學長(Chief Philosophical Officer,CPO),以幫忙公司決定人工智慧系統要怎麼行動。而且運算倫理的學門會欣欣向榮,因為我們要考慮怎麼把系統建造成會遵照所議定的價值。

最近有朋友問我要怎麼說服孩子,上大學不要去念哲學,而要修「比較實用」的學分。我的回答是,要替他的孩子所選的科目鼓掌;在商界、政府和其他各處,我們都極度需要更多的哲學家。要是沒有他們,就不可能確保2062年時的人工智慧系統會反映出人類的價值,並且最能確保數位人比智人(Homo sapiens)更符合倫理。(摘錄整理自第六章)

 

2062:人工智慧創造的世界 

托比.沃爾許(Toby Walsh)/著;戴至中/譯

經濟新潮社出版

售價:400元

 

作者簡介

托比.沃爾許(Toby Walsh)

世界首屈一指的人工智慧專家之一,一輩子都在夢想和研究機器或可如何思考。他是新南威爾斯大學的人工智慧科學講座教授,以及澳洲科學院的院士。托比大力提倡要設限,以確保人工智慧是用來改善而不是危害我們的生活。


Advertisement

更多 iThome相關內容