圖片來源: 

Google

根據路透社的報導,為了避免引爆性別歧視的爭議,Google的Gmail團隊已不再於智慧寫信(Smart Compose)功能中提供有關性別代名詞的建議,例如He或She。

Gmail是藉由今年5月的大改版新增了智慧寫信功能,它利用人工智慧來協助使用者於Gmail中自動輸入文字或完成句子,例如當使用者輸入「Have’t seen you in a while and I hope you’re doing well.」,打算接著寫「Let’s.....」時,智慧寫信功能就會建議以「Let’s get together soon.」來完成句子。

然而,Google的科學家發現,當在Gmail中輸入「I am meeting an investor next week,」時,智慧寫信功能所建議的下一句是「Do you want to meet him?」而不是「Do you want to meet her?」

就算使用者會自行更改錯誤的性別代名詞,但Google並不想揹負性別歧視的責任,於是選擇完全關閉性別代名詞的建議能力。

Gmail產品經理Paul Lambert向路透社表示,各種出包的嚴重性不同,而搞錯性別卻是件大事。

目前Gmail在全球約有15億用戶,從智慧寫信功能於今年5月問世以來,自Gmail寄出的訊息中,已有11%仰賴該功能的協助。在智慧寫信所建議的字詞或句子中,會使用性別代名詞的比例則不到1%。

近來人工智慧承襲了人類的偏見這件事吸引了眾多的研究及討論,由於AI的訓練資料庫是來自於人類,使得相關的AI系統也會染上人類的種族與性別歧視,不只是語言,現階段的人臉辨識系統對女性及深色人種的辨識能力也低於白人。Google Photos還曾在2015年將一對黑人情侶標示為大猩猩,而Google同樣祭出了保守的解決方案,與其冒著辨識錯誤的風險,Google選擇直接將猩猩與猴子的標籤自Google Photos中移除,於是乎,不只是人類不會被誤植為猩猩,就算是猩猩本人在Google Photos中也找不到自己的標籤。

熱門新聞

Advertisement