OpenAI在今年2月的時候,原本要釋出完整的GPT-2模型,但因為該模型功能強大,能夠產生極度真實的假新聞,因此最後只釋出小部分的模型和範例,但是經過這幾個月的觀察,OpenAI認為當初擔心的事並沒有發生,因此現在決定公開最大具有15億個參數的GPT-2模型、程式碼和模型權重

這個GPT-2模型利用了800萬頁的網頁作為訓練資料,以預測文字的下一個字作為訓練目標,因為龐大且多樣的訓練資料集,因此該模型不需要對特定任務進行訓練,就能應用於多個領域,目前該模型可以執行機器翻譯、問答、閱讀理解和總結段落等語文任務。Open AI期望GPT-2能夠被用來開發成,寫作人工智慧助理或是語言理解系統等應用。

OpenAI公開這項技術引來了極大的爭議,因為只要給GPT-2模型一段文字,模型就能產生接續段落的文字,甚至是假以亂真的假新聞,簡直就是文字版的Deepfake,一般人無法辨識真偽。OpenAI也在隨後表示,由於考量技術可能遭到濫用,產生誤導性的文字、冒充他人身份,以及在社群網站散布假新聞等問題,因此OpenAI不會釋出已經訓練完成的完整模型,僅發布較小型的模型、範例和技術白皮書,供外部研究人員使用。

研究恐怖主義、極端主義的明德大學蒙特雷國際研究學院和反恐中心(CTEC)發現,極端主義團體可以濫用GPT-2,特別可對白人至上、馬靠絲主義、聖戰伊斯蘭教和無政府主義四個意識形態進行微調,CTEC與也展示了創建模型來宣達這些意識形態的可能性,他們同時也提到,雖然檢測合成文字的精確度較低,但是基於機器學習的方法,仍可讓專家發現惡意人士所產生的合成文字。

研究人員發展出了一種檢測模型,可以偵測1.5B GPT-2模型所產生的文字,精確度達95%,他們認為,這樣的精確度仍然還不夠,還需要綜合元資料方法,加上人為判斷以及公共教育,才能有效防範模型產生的造假文字。1.5B GPT-2模型的釋出,可以用來幫助合成文字偵側的研究,OpenAI提到,雖然這也可以讓惡意人士更好地規避偵測。

OpenAI提到,到目前為止,他們還沒有發現GPT-2模型遭濫用的有力證據,儘管網路上有一些將模型用於網路釣魚以及垃圾郵件的討論,但都未實際發現撰寫的程式碼、文件和濫用的實例,而研究人員認為,當文字生成器的輸出變得更成熟時,被濫用的可能性就會提高。


Advertisement

更多 iThome相關內容