Meta揭露它們在Facebook等平臺上部署新的交叉問題系統,能夠更好地處理三種不同但相關的違規行為,分別是仇恨言論、霸凌騷擾,以及暴力和煽動。Meta透過將原本用於審查言論的多個模型,收斂集中成更加強大的人工智慧系統,以降低系統複雜度以及維護的困難度。

Meta花了大量的心力在開發人工智慧系統,以偵測平臺上的違規內容,官方解釋,人工智慧系統通常是單一用途,每個系統都針對特定的內容類型、語言和問題設計,像是偵測誤導資訊和標記仇恨言論的系統,就需要不同的訓練資料和不同的基礎設施,因此需要分開各自獨立。

眾多專屬的系統,最終導致大量的計算資源消耗,也提高了系統維護複雜度,進而降低系統的更新速度,最終導致跟不上不斷變化的挑戰。因此Meta認為,對於整體的工作來說,最大的挑戰並非開發更多解決特定問題的系統,而是建構更少且更強大的人工智慧系統。

Meta以交叉問題系統來解決這個問題,由於跨多個系統訊號的人工智慧模型,能夠建立新的連結提高對內容的理解,並且提高運算資源的使用效率,同時也增加了對於新挑戰的回應速度。

Meta提到,有一些問題是重疊的,像是霸凌通常和暴力、煽動有關,同時也涉及仇恨言論,透過讓人工智慧能夠概括處理這三種違規行為,系統對於三個獨立的問題,都能有更廣泛地理解,表現比之前個別分類器更好。

這項新方法有助於Meta應付不同語言的需求,官方提到,過去他們通常需要數個月,才能替每個市場創建單獨的分類器,但是現在只要數周,就可以更換大部分市場的跨問題系統,也不需要增加額外的硬體,來執行新的進階模型。

官方將幾十個模型整合成少數幾個模型,系統反而能夠從所有問題的訓練資料中學習,而這有助於彌補單一用途模型間可能存在的差距,像是特別擅長偵測西班牙語仇恨言論的模型,但是霸凌和騷擾的西班牙語訓練資料較少,借助多語言理解方面的進步,就能夠將西班牙語霸凌內容翻譯成為其他支援霸凌偵測的語言,進一步偵測西班牙語中的霸凌行為,而不需要額外對其進行訓練。

之所以Meta能夠整合多個獨立模型成一個大模型,這項工作建立在Meta多模態完整性系統的基礎上,該系統能夠跨語言、模態和違規類型的系統,以更深層次地了解有害內容。

Meta強調,在過去幾年,建立通用模型是無法想像的。特別是文字、視覺和聲音訊號,都由不同的訓練資料和架構來處理,而在Meta創建了FAIM(Facebook AI Multimodal)框架函式庫後,開始能夠支援跨文字、圖像和音訊的多模態內容理解,Meta更進一步開發了WPIE(Whole Post Integrity Embeddings),以辨識跨類型的違規內容。

透過折疊任務、領域和語言成單一更強大的系統,Meta得以跨多個維度改進系統,包括提高效能、降低系統複雜度,同時提高迭代速度,Meta認為,泛化讓模型模仿人類學習的方式,是開發更聰明人工智慧的途徑。


熱門新聞

Advertisement