| 臉書 | AI | 偏見

臉書AI將黑人影片誤標為靈長類

某些臉書使用者在觀看黑人主題影片時,系統不但隨之推薦靈長類型影片,內容還是與黑人相關的影像

2021-09-06

| AI | 演算法 | 偏見 | 偏誤 | 推特 | Twitter | 圖像剪裁演算法 | Image Cropping Algorithm | 顯著演算法

Twitter首屆AI演算法偏差競賽結果出爐:偏好較瘦、較年輕也較白的人像

在Twitter針對自家演算法舉辦的抓漏競賽中勝出的研究,顯示出Twitter的圖像剪裁AI模型,傾向保留符合刻板審美觀的女性人像,會以性別、膚色、身材等外觀,決定照片縮圖結果

2021-08-10

| 臉書 | AI | 偏見 | 資料集

臉書釋出新資料集供研究人員評估人臉辨識系統偏見

Casual Conversations資料集是由臉書付費召集參與者,所收集而來的人像影片,由參與者自己提供年齡和性別,並且經訓練人員以費氏量表標記參與者的膚色

2021-04-12

| AI | 藝術生成 | 偏見

富士通研究人員發現AI藝術生成系統,普遍存在種族與性別偏差

研究人員發現,市面上的AI藝術生成系統,在重繪畫作時,會傾向改變黑色人臉的膚色,甚至錯認人物性別

2020-12-30

| ACM | 臉部辨識 | 偏見

ACM發公開信要求禁用臉部辨識技術

ACM經過嚴謹的評估,發現臉部辨識技術經常性的對弱勢族群造成傷害,因此認為在未有完善的法規之前,政府與企業應該停止使用該技術

2020-07-02

| AI | XAI | AI治理 | 偏見 | KPMG | FinTech

KPMG:企業導入AI應建立起演算法治理框架,來降低模型決策錯誤的風險

現今企業在導入AI時面臨多種風險,大致上來自於大數據、演算法、運算效率三個面向。KPMG認為,應建立起演算法治理框架來降低風險發生機率,才能取信於客戶與監管機關。

2020-01-14

| NIST | 臉部辨識 | 種族 | 性別 | 偏見

美國政府研究:多數臉部辨識演算法存在種族偏見

在189個臉部辨識演算法中,美國開發的演算法通常對亞洲人、非裔美國人和太平洋島民有較高的誤判率

2019-12-24