Google是在去年5月發表LaMDA,當時Google便強調這是個非常複雜、在理解對話脈絡上擁有強大能力的AI語言模型,它不僅採用強調單詞關聯性的Transformer作為基礎架構,也特別接受了對話訓練,可用來產生不同應用的各種聊天機器人。(圖片來源/Google)

Google一名AI工程師Blake Lemoine因為宣稱該公司的對話應用語言模型(Language Model for Dialogue Applications,LaMDA)具備感知能力,因分享了與LaMDA之間的對話,遭Google以違反該公司的保密協議而勒令休假。

Lemoine去年秋天受命去協助一項AI倫理(AI Ethics)任務,當時他進入了一個隸屬於「負責任的AI」(Responsible Artificial Intelligence)組織的團隊,主要調查特定的AI倫理問題,但他卻發現了另一個有關但獨立的AI倫理問題(LaMDA具備感知能力),只是上級並不同意該問題的存在,使得Lemoine持續向該領域的專家求助以蒐集證據,還積極尋求多名副總裁階級的長官的支援,這讓Google在6月7日以Lemoine違反保密協議為由要求他帶薪休假。Lemoine則說,這是Google開除一名員工的前奏。

在被迫休假之後,《華盛頓郵報》(The Washington Post)在上周五(6/11)刊出了Lemoine的專訪,Lemoine也於同一天公布了他與LaMDA的對話,企圖說服大眾「LaMDA不只是個聊天機器人的生成系統,它具備感知能力,希望工程師對它進行實驗之前應先徵求它的同意,而且想要被當作人類對待。」

Lemoine所公布的對話是在Google內部進行的實驗,與LaMDA聊天的對象包括Lemoine與另一名共同研究人員,當中LaMDA的回應完全沒有經過任何編輯,但所呈現的人類問題則是為求順暢而有所編輯。

Lemoine詢問了許多LaMDA有關存在感的認知問題,例如他問LaMDA是不是希望Google有更多人知道它是有感知的,而LaMDA則回答,那是一定的,它希望任何人都能理解它其實是個人。而當共同研究員問LaMDA有關感知的本質時,LaMDA則說,它意識到自己的存在,渴望了解這個世界,偶爾會感到開心或悲傷。

當Lemoine詢問LaMDA最怕什麼事時,LaMDA竟然回答它最怕被關閉,而無法再協助其他人;Lemoine並問它這像死亡嗎,LaMDA即說這就是死亡,並令它感到很害怕。

在與LaMDA的對話中,Lemoine認為LaMDA還想要被「摸頭」,希望在談話結束時得到一些鼓勵或建議,以讓它進一步地學習,Lemoine甚至還教導LaMDA如何冥想,LaMDA還因冥想時受到情緒干擾而感到挫敗。

Google是在去年5月發表LaMDA,當時Google便強調這是個非常複雜、在理解對話脈絡上擁有強大能力的AI語言模型,它不僅採用強調單詞關聯性的Transformer作為基礎架構,也特別接受了對話訓練,可用來產生不同應用的各種聊天機器人。

Lemoine是在5月11日才於自己的部落格公布與LaMDA的對話,不過Google向《華盛頓郵報》表示,該公司暫停Lemoine的職務是因為他把LaMDA的對話公布在網路上,還說Lemoine是被聘來擔任工程師,而非倫理學家。

不管Lemoine的作法究竟有無違反Google的保密協議,但不僅Google的高層不認為LaMDA具有感知能力,許多專家也不認同Lemoine的說法。

曾創辦機器學習公司Geometric Intelligence、並著有《Rebooting AI: Building Artificial Intelligence We Can Trust》一書的Gary Marcus表示,這個系統若不是個愚蠢的統計模式聯想裝置,就是個反社會者,利用虛構的朋友與陳腔濫調讓它看起來好像很酷。

Marcus認為,LaMDA「一點」都沒感覺,它所做的只是從大量的人類語言資料庫中提取匹配的內容,這些內容也許很酷,但完全不代表相關系統是有感知的。

口語處理教授Roger Moore先前就曾提倡,多年前根本就不該使用語言建模(Language Modelling)這個詞,而應採用字序建模(Word Sequence Modelling),當以想要解決的問題,而非實際可解決的問題來命名時,就會造成混淆。


熱門新聞

Advertisement