左岸文化

以撒.艾西莫夫在一九四二年所發表的作品《轉圈圈》(Runaround)中,提出著名的機器人三定律:1.機器人不得傷害人類,或坐視人類受到傷害。2.在不違反第一定律的前提下,機器人必須服從人類的命令。3.在不違反第一與第二定律的前提下,機器人必須保護自己。

艾西莫夫的機器人三定律對後世影響甚大,這些定律看似清晰,但卻不容易應用;例如,一部自主運行的無人機可不可以炸掉一個恐怖份子組織陣營?機器人第一定律的前半段(「機器人不得傷害人類」)似乎是禁止這樣的行為,然而,一個機器人士兵可能很快就陷入第一定律後半段的兩難(「禁止「坐視人類受到傷害」的行為),到底要遵守第一定律的前段還是後段?因此,我們必須再檢視其他的價值標準。

這類曖昧模糊的情形,不會僅僅出現在戰場上。舉例來說,試想,艾西莫夫的機器人定律能不能允許機器智慧車?人類發展自動駕駛汽車(簡稱自駕車)的目的之一,在於降低每年數千件交通事故與傷亡人數。這個問題第一眼看似簡單又直接,但是,換個角度想,自駕車也可能造成數以萬計的職業駕駛失業;政府能不能基於造成失業的疑慮,就禁止或限制自駕車的發展?艾西莫夫的三大定律其實沒那麼清楚明暸。三大定律中沒有一條能適用於近年熱門的自駕車發展熱潮:近年來的實際情況是,為了讓自駕車能夠更容易運作,行人還必須經過訓練並調整其用路方式,否則可能會遭到處罰。

像這類或其他許多的模糊空間,就是與機器人和人工智慧相關的法律規範和判決比艾希莫夫三定律更細緻的原因,因此,本書將深入探索這片法律境域。在此之前,我要先用機器人四大新律來介紹本書接下來的思路。四大新律是用來指引人類如何建構機器人,而非應用在機器人本身。雖然比起艾西莫夫三大定律,四大新律可能創造更大的模糊空間,但卻也更適切地反映出真實世界的法制是如何被(曖昧地)建構起來。立法者不可能精準預測所有主管機關需要進行規範管理的實際情況,因此通常會以概括原則性的法規文字,授權給行政機關執行。因此,當我們將特定權力委任給有科技經驗的專業立法者時,機器人律法勢必也會是概括式的原則。

機器人四大新律

機器人系統與人工智慧應為補充與輔助專業人士的角色,而非取代專業人士的工作。因為科技會造成失業的說法,促使社會大眾開始討論未來的工作。有些專家預測,所有的工作都將因科技的進展而消失;有些專家則指出自動化發展路上的障礙與限制。政策制定者所關心的問題是,對於機器人技術的發展,什麼樣的限制是合理的?而哪些障礙應該再仔細評估和予以移除?例如,切肉機器人的發明,好像頗為合理,但是,托嬰機器人(roboticday care)就讓有些人質疑。對托嬰機器人的擔憂,是一種單純盧德主義式的反應?還是含著對於人類孩童成長的本質,有其他更深層的反省與思考?再舉個例子,與執照相關的現行法規,規定分析疾病病理症狀的應用軟體,不得以醫生診斷之名行銷。究竟,這些限制作法究竟是不是好的政策?

這裡涉及很多重要因素的考量,尤其會因工作與管轄權面向而異,但是若能發展出一個統一、有組織性的原則,就等於是對人的自我價值,以及對社群治理做出有意義的工作。自動化議題中的人性思維,本書會優先著重在協助勞工職場與勞動專業的創新;這些人性思維會讓機器做危險或細瑣的工作,同時也確保目前做這些工作且未來可能由機器替代的勞工能夠獲得公平的補償,並且有機會轉換到其他社會角色。

但是,這種持平觀點,卻會同時讓科技愛好者與科技恐懼者不滿。同樣地,強調治理的立場,也會同時得罪反對「干預」勞動市場的一方,以及厭惡有個「專業管理階級」的另一方。各種職業儼然形成經濟種姓制度,讓某些工作者相對於其他工作者享有不公的特權,這樣說來厭惡專業管理階級者所抱持的懷疑,的確有其道理。然而,想要一方面促成各種職業追求更崇高的目標,同時鬆動職業的階層化,還是有可能的。

職業專業化的核心價值,在於賦予工作者在生產組織中能保有一些話語權,以此來交換組織加諸在他們身上的專業倫理義務,以促進公共善。由於高等教育與研究的推進,無論在大學的學門分科或在實務場域的辦公室現場,各種職業已經培養出「分散式專業知能」(distributed expertise),不同的專業知識分散在不同的多數人身上,使組織內各階層均有相關專業人員,藉此也減緩了專業技術官僚與一般文官階級之間的緊張關係。我們不應該贊同破壞式創新者的主張─也就是廢除或禁止職業分類;相反地,想要發展人性的機器自動化,必須強化既有的專業社群,也要同時創造新的專業能力。

什麼是「專業」?妥適的定義應該是寬泛的,而且應包含許多加入工會的勞工,特別是那些保護涉及危險技術的工會組織。例如,教師透過工會組織提出專業意見,反對透過自動化系統過度「訓練與測驗」(drilling and testing)的政策,除了保護教師工作權益之外,在很多情況下也都是同時提升學生利益。當前各種工會已逐漸專業化,讓工會會員更有能力與權力保護他們所服務的對象(例如老師與其服務的學生),因此工會也應該在AI革命中扮演重要角色。

有時候很難證明「以人為本的處理程序」會比「自動化程序」更好;粗糙的金錢衡量指標(crude monetary metrics)也能產出複雜的關鍵標準。例如,在「暴力自然語言處理」(brute-forcenatural language processing)的基礎上,機器學習的程式可能很快就能預測某一本書是否會比另一本書熱銷;從純粹經濟觀點來看,這種程式可能比真人編輯或者老闆挑選文稿或劇本來得更有效率,然而,創意產業工作者可能會站出來捍衛自己的鑑賞能力。市場上有些作品可能不是普羅大眾喜歡但卻有存在必要性的作品,此時,真人編輯在出版、判斷、挑選與行銷方面,就扮演著極為重要的角色。因此,大學中的專業學院,其重要任務之一,即是應該闡明並重新檢視媒體、法律、醫學與許多其他領域的專業標準,避免採用那些為了自動化而過度簡化的專業標準。

即使是在物流、清潔、農業和礦業等等那些看起來最有自動化需求的領域,勞工也將在AI與機器人技術的長期過渡過程當中,扮演關鍵角色。蒐集或創建AI所需的資料,對很多人或領域來說,都是艱鉅的任務,而法規可以使這個工作任務產生更多意義與自主性。例如,相較美國對卡車司機三六○度的監控和控制,歐洲的司機可依據歐盟隱私相關法規抵抗這種美國卡車司機所受到的壓榨。但要說明的是,提出歐洲的作法,並不表示主張危險的職業不須受到監督。安裝監測感應器可能可以發現駕駛的反射本能所導致的問題,然而,以安全漏洞爲目標的感應器偵測行為,和使用影音持續記錄駕駛所有活動、進行長時間的監控,前者是偵測,後者則是監控,這兩者之間仍有很大的差異。在缺乏人性尊嚴的監控(surveillance),以及合理且有限的監測(monitoring)兩者之間取得恰當的平衡,對絕大多數領域來說,都是至關重要。(本文摘錄整理自《二十一世紀機器人新律》第一章,左岸文化提供)

圖片來源_左岸文化

 書名  二十一世紀機器人新律:如何打造有AI參與的理想社會?

法蘭克.巴斯夸利(Frank Pasquale)/著;李姿儀/譯

左岸文化出版

定價:550元

圖片來源_美國布魯克林法學院

 作者簡介 

法蘭克.巴斯夸利(Frank Pasquale)

現為美國布魯克林法學院教授,專長領域為人工智慧法律、資訊法等。

畢業於美國耶魯大學、英國牛津大學。其研究領域著重於健康照護、隱私、資訊、網路、演算法之法律與政策、數位科技法制以及智慧財產權法等,學術成果斐然。二○一五年出版《黑箱社會》(The Black Box Society)一書,針對當代演算法應用所形成的黑箱社會及其運作、影響進行深入討論,並試圖提出解決方法。該書不但獲選為當年度最受矚目書籍、最佳學術論著外,現已翻譯為中、韓、法等超過七種不同語言。

熱門新聞

Advertisement