臉書最近在2018年F8開發者大會上,介紹了平臺如何透過AI技術,在用戶通報惡意內容前,就能主動更快速找出不當的內容,且能夠找出更多的不當貼文。

臉書一般是透過用戶標註,或是技術主動找出惡意不當的內容,像是仇恨言論、包含色情或暴力的內容,這兩項方法都很重要,但是隨著科技的發展,臉書能夠利用AI技術,包含機器學習、電腦視覺等技術,快速找到不當的內容。

現在,臉書可以更快速地找出惡意內容,而不是等待用戶通報這些惡意內容,以有自殺傾向的貼文為例,快速辨識出用戶表達了自殺的想法,可以馬上與急救人員合作提供協助,目前已經成功阻止超過1,000個案例。

而主動的透過AI技術來檢視貼文內容,可以在最短的時間內,刪除不當的言論,例如,兩週前臉書曾宣布2018年第一季已經主動刪除了近200萬則恐怖組織的貼文,其中,99%的貼文在尚未有用戶通報前,系統就已經自動偵測並刪除。

此外,臉書也提升了審核貼文團隊的能力,團隊需要有更多的專業知識背景,來了解特定的情況的案例,像是貼文是在說自己吸毒成癮的狀況,還是在鼓勵別人吸毒。

臉書透過分析過去特定惡意內容的案例行為模式,來訓練辨識模型主動找到其他類似的問題,針對裸露或是暴力的圖片,臉書正透過電腦視覺技術來加強偵測。

而仇恨言論的部分,臉書已經開始主動檢測貼文是否違法臉書政策,並經由審查團隊檢驗,才不會誤判不是仇恨言論的貼文,像是有些用戶會描述自己遇到的仇恨言論來提高大家對該議題的重視。

另一方面,臉書也有許多假帳戶,臉書每天在假帳戶做出惡意行為之前,封鎖了上百萬個假帳號,這樣的封鎖機制對於預防詐騙、假新聞、散布錯誤訊息和廣告非常重要,最近臉書則是透過AI技術,來偵測帳號和金融詐騙的關聯性,大部分打擊詐騙的工作,都是透過模式辨識來找出有問題的行為,若帳戶在短時間內連續發表貼文,大部分就是有問題的徵兆。

除了上述的不當內容之外,大多數宣傳恐怖攻擊的貼文也會在用戶未通報之前,就被自動刪除。

臉書表示,即便有AI技術來協助偵測不當的內容,但是要有效地找出所有類型的不當內容,還需要更多的時間,和訓練資料來辨識惡意貼文的模式、行為,像是較少語言的貼文,或是較少類型的不當貼文,就不容易有足夠的訓練資料來教導模型辨識,也因此,臉書來是鼓勵用戶看到不當的內容可以通報。

不過,臉書也正在嘗試提升跨語言辨識模型的正確率,臉書AI研究院目前正在研究嵌入多種語言的技術Multi-lingual embeddings,或許能夠解決語言的挑戰。


Advertisement

更多 iThome相關內容