Otago大學電腦科學系助理教授Alistair Knott(圖片來源/Alistair Knott)

劍橋分析公司(Cambridge Analytica)不當蒐集8千7百多萬筆臉書用戶個資,用來分析並建立人格模型,再加以投放「客製化」假新聞,企圖影響美國2016年總統大選。而劍橋分析,到底為什麼能精準分析這麼多人的檔案、投放迎合個人喜好的假新聞?

紐西蘭Otago大學電腦科學系助理教授Alistair Knott是一位擅長認知科學和AI研究的知名學者和語言學作家,尤其關注語言對人類大腦認知活動的影響,也因此,早在臉書劍橋分析醜聞爆發前,他就開始研究AI對美國大選和英國脫歐投票的影響,而劍橋分析公司如何操控訊息來影響選民,更是他的關注焦點。此外,Alistair Knott也從2017年開始對外發表他的初步研究觀察,而這份彙整了他研究成果的「Uses and abuses of AI in election campaigns」簡報更廣為流傳。

在這份簡報中,Alistair Knott詳細談論劍橋分析試圖影響民意的作法及技術原理,而iThome也特別透過Email專訪Alistair Knott對劍橋分析事件的剖析。

Q:劍橋分析用了哪些AI技術,來分析臉書用戶的人格特質、精準投放客製化的假新聞?

A:其實劍橋分析使用的技術,只是傳統的監督式機器學習技術,連自然語言處理(NLP)技術都沒用到。劍橋分析統整臉書用戶的個人資料,並將結果對映到人格分析的尺度上,也就是說,他們觀察臉書用戶對哪些人、事、物和話題按讚,然後利用這些按過讚的項目,來建立這群臉書用戶的人格檔案。

另一方面,劍橋分析在精準投放(Micro-targeting)的作法上,簡單來說,就是讓不同人格特質的選民,可以收到不同內容的競選廣告訊息。如前面提到的,當劍橋分析有能力從臉書用戶按讚數據,來預測該用戶的人格特質之後,就可以能針對不同性格的用戶,來發送各自不同的競選廣告。

不只如此,劍橋分析還利用了其他方法,來強化推播的操作,來決定什麼人格特質的人,會接收到什麼類型的訊息。其實這在政治選舉和市場營銷活動中,十分常見。你所需要的,是用來衡量廣告訊息有效性的尺度。舉例來說,要進行募捐,必須了解每個發送的訊息,平均募捐到的金額是多少。然後,你可以針對不同性格的人,嘗試一系列的廣告訊息,並觀察哪種訊息最有效。

Q:劍橋分析使用的監督式機器學習技術,具體來說是什麼?

A:劍橋分析採用的技術,來自於2015年發表的一篇研究論文,該文作者以臉書按讚資料來預測一個人的人格特質,而這種預測技術的基礎,就是線性回歸數學。

而線性回歸數學,是一個古老又傳統的資料分析方法,廣泛用於保險業,來預測發生意外事件的可能性,或是用於銀行業,來預測某人的信用等。

Q:為何劍橋分析靠臉書讚的資料,就能建立精準的人格預測模型?是否與資料量有關?

A:那篇在2015年發表的研究論文寫道,臉書讚的數量,會影響人格預測的準確度。如果給線性回歸模型300個臉書讚,那麼它預測人格的準確度,就和你的另一伴一樣准。由此看來,不需要大量資料,也能精準預測人格特質。

重點是,從臉書按讚的內容,可以看出一個人的性格。舉例來說,假設A對一個重金屬樂團按讚,而B正好是對基督教福音派按讚,這就說明了兩人各自的喜好和信仰。

Q:劍橋分析使用的技術,解決了什麼樣的困難,讓影響選民這件事變得更容易?

A:劍橋分析並未運用任何創新的AI技術;他們所用的,是眾所周知的線性迴歸數學。他們創新之處,反而在於用來輸入和輸出的資料。劍橋分析以臉書「讚」當作輸入源,以人格度量當作輸出源,這樣的組合很新穎,從來沒有人在政治活動中應用過。

Q:除了用來影響政治競選,劍橋分析所用的技術,是否也能應用到其他領域?

A:像劍橋分析這樣的作為,其實在網路上隨處可見。劍橋分析根據臉書用戶的數位足跡,以機器學習技術來預測他們的性格,而Google、Amazon和臉書自己也是根據使用者的網路活動行為,以機器學習系統來預測他們最感興趣的廣告類型。這也是為什麼你在Youtube、Google和臉書上看到的廣告,好像都是為你訂製的。而這種舉動有沒有道德問題,又是另一回事了。

不過在我看來,特別值得懷疑的預測工具,是臉書動態消息的預測系統。臉書這套系統,能預測用戶最有可能閱讀的新聞故事,然後推送這些報導。也因此,每個人都有屬於自己的新聞版本,而這麼一來,就加深了他們對某件事既有的看法,也助長了假新聞的散播。因為在這樣的機制下,每個人接收的新聞版本不一樣,所以其他人無法監督、檢查別人所看到的新聞。

舉例來說,如果有問題的新聞出現在實體報紙上,或是在新聞網站上,人們很快就會起疑心,進而查證,然後投訴不實報導。

但是,如果客製化新聞直接傳遞給個人,也就是出現在他們的社交平臺首頁,那別人就不知道他們到底接收了什麼新聞,要檢查新聞的真實性也就更難。對我來說,這是民主面臨的危險。

Q:假新聞對政治和我們的日常生活,會有什麼影響?

A:這個危險之處,在於許多人會被有心人士誤導。也就是說,不實的政治謊言和幻想,有能力左右民眾要投給誰。一個完善的民主政治體系,應該要審查政治人物或政黨向人民傳播的政治訊息,以確保選民了解事實。

Q:我們可以從臉書和劍橋分析事件中學到什麼?

A:我們可以從中得知,民主正面臨嚴峻的新威脅。這個新威脅,與三個新興技術的發展有關:1. 從網路上可獲得大量個人資訊;2. 現代機器學習算法可使用這些資訊,來學習、建立複雜的人格檔案;3. 而社群平臺,能讓根據複雜人格檔案建立的客製化政治訊息,有效發送給對應的受眾。

這些訊息引起的效用非常大,原因有兩個:第一,這些訊息是根據每個人的人格特質所發送的;第二,這種行為很難審查,因為這些訊息是直接發送給個人,而不是公開在平臺上、讓第三方看得到。

Q:運用科技是否能杜絕假新聞的肆虐?

A:我不認為技術能解決這個問題。在我看來,監管科技技術的法規,才是比較好的解決方法,特別是要限制哪些公司能在網路、社群媒體上取得民眾個資,此外,還要限制精準投放政治訊息的管道。整理⊙王若樸


Advertisement

更多 iThome相關內容