臉書(Facebook)本周宣布將祭出強硬措施以對抗刻意操作的媒體,包括日益流行的Deepfake內容。

臉書表示,有些刻意操作的內容經常是出於良性的原因,像是讓影片或聲音更清晰,但有些人則是為了誤導大眾;人們可能是利用Photoshop,或者是以人工智慧及深度學習等技術來打造與事實不符的Deepfake影片,儘管目前網路上的Deepfake影片並不多,但它們卻對社會及產業帶來重大的挑戰。

這使得臉書針對被刻意操縱的影片提出了兩項移除準則:如果這些影片的編輯不是為了強化影片或聲音的質感,而是為了誤導大眾,竄改或添增人們所說的話;或者這些影片藉由人工智慧與機器學習技術,替換或疊加了原本的內容,只是為了讓大眾信以為真,那麼它們都將被移除。

不過上述準則排除了那些與模仿或諷刺有關的內容,也不針對單純的影片編輯行為。

除了被刻意操弄的影片之外,其它的影片也會受到臉書既有社群守則的規範,假設有照片或影片被事實查核員判斷為不真實或只有部份真實,那麼臉書將會減少它們的散布,同時禁止它們出現在廣告上。

但臉書並不會直接將它們移除,而是會在使用者分享前跳出警告。臉書解釋,如果他們直接移除所有被視為不真實的影片,那麼這些影片可能依然會在網路上或其它社交網站上流竄,藉由標註警告訊息將能提供重要資訊予使用者。

去年臉書及微軟才啟動Deepfake影片辨識技術創新大賽,邀請開發人員打造可辨識Deepfake影片的模型,臉書亦與路透社合作,舉辦線上訓練課程,以協助全球的新聞從業人員辨識Deepfake影片,種種作法都是為了避免人們被虛假的影片或內容所誤導。


Advertisement

更多 iThome相關內容