知名的全球科學刊物出版社Springer Nature準備在今年出版《一個可利用影像處理來預測犯罪行為的深度神經網路模型》(A Deep Neural Network Model to Predict Criminality Using Image Processing)文章,不過,有超過1,700名來自各領域的科學家擔心該文章會助長種族主義,因而連署企圖阻止它出版

此一文章將被收入《運算科學與運算智慧之執行》(Transactions on Computational Science and Computational Intelligence)之系列書籍中,它是來自哈里斯堡科技大學(Harrisburg University)的研究,研究人員打造了一個人臉辨識軟體,單從人臉照片就能預測人們從事犯罪行為的機率,宣稱準確率高達80%,還特別強調它沒有任何的種族偏見,可用來協助執法機關預防犯罪。

然而,來自統計、機器學習、人工智慧、法律、社會、歷史及人類學的逾1,700名研究人員卻出面打臉該研究,認為其宣稱是基於不健全的科學前提、研究與方法;而且政府官員在這幾年擁抱機器學習與人工智慧,把它們當作合法化國家暴力與強化政權的工具,特別是在國家動盪之際。

科學家們指出,要在沒有種族偏見的狀態下開發一個可預測或辨識犯罪行為的系統是不可能的,因為那必須奠基在遭到警方逮捕或被法院判刑的資料是可靠的,但實際上它們便存在著種族偏見。

此外,科學家也認為AI模型在公平性上嘗試的各種技術方法,分散了有關演算法有效性的基本問題。因為機器學習學者很少接受必要的批判性方法、框架及語言上的培訓,而這些對於在模型中整合文化邏輯與隱含假設來說是至關重要的。

科學家們的結論是,最近在種族、階級與性別上出現的演算法偏見,揭露了機器學習系統在架構上其實是放大了歷史上的歧視。因此,他們不僅希望Springer Nature不要出版該文章,也呼籲所有的出版社都應該避免成為這類研究的曝光平臺。


Advertisement

更多 iThome相關內容