圖片來源: 

EFF

社交平臺的言論審查議題逐漸受到關注,電子前線基金會(Electronic Frontier Foundation,EFF)與數個非營利組織共同發布了聖塔克拉拉內容審查透明度和問責制原則(Santa Clara Principles on Transparency and Accountability in Content Moderation),希望社交平臺能提供使用者透明的言論審查標準。

在不少情況下,言論仲裁(Content Moderation)似乎是必要的,在許多事件發生當下,政府以及用戶也認為社交平臺應該主動介入。以臉書來說,除了一般的騷擾或是詐騙帳戶情況外,德國甚至訂定法律,要求臉書等社交平臺義務打擊仇恨言論,而臉書也曾坦承社交平臺有害民主,在2016年美國總統選舉,外來政權插手,臉書後悔當初沒有及時介入阻止,而在最近爆發的劍橋分析(Cambridge Analytica)公司被指利用臉書資料助川普當選事件,用戶皆認為臉書沒有及時介入實屬失職。

EFF也指出,當時在夏洛特維爾(Charlottesville)推崇白人至上的抗爭活動,社交平臺充斥許多仇恨言論,執法單位也要求社交平臺刪除相關貼文及帳號。不過,在社交平臺試圖執行類似工作的同時,也有很大機率錯誤打擊了合法以及有價值的言論,尤其是邊緣化的團體,受到這種警務打擊情況日益嚴重,這直接削弱了他們透過社交媒體以及網路社群發聲的管道。

但目前所有的社交平臺對於言論的審查流程極其不透明,當這些背後運行演算法進行言論審查,卻沒有搭配審查標準說明時,將造成各群體的誤會加深,對社會來說滿盤皆輸。

究竟什麼程度的言論仲裁是合理的?EFF與數個非營利組織共同給出了答案,他們提出了聖塔克拉拉內容審查透明度和問責制原則,這是一系列最低標準的集合,以強化科技公司的言論仲裁政策。EFF資深專員Nate Cardozo表示,他們的目的是要確保社交平臺的內容指南公平、透明、尊重用戶,且符合比例原則。

Nate Cardozo提到,臉書與Google最近有採取一系列措施,來提高這些審查工作的透明度,但是他們覺得還不夠。聖塔克拉拉原則的3個基本要求,第一、科技公司應主動公布違反內容準則,被永久刪除的貼文以及暫時停權的帳戶數量。第二、所有用戶都應被明確告知內容準則,並且明確告知文章刪除以及帳號停權的原因。第三、提供公正的內容刪除人工審核,以及有意義的申訴管道。

EFF表示,他們從2010年開始執行的年度隱私報告Who Has Back,揭露科技公司提供給美國聯邦政府用戶隱私資料的狀況,而在今年,他們將會把內容專注於私人言論審查的議題上,並把聖塔克拉拉原則作為評價的最低標準。


Advertisement

更多 iThome相關內容