歐盟獨立專家組織High Level Expert Group(HLEG)示意圖,圖片來源:https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

歐盟獨立專家組織High Level Expert Group(HLEG)周四警告歐盟應小心人工智慧(AI)濫用帶來危險後果,主張禁止以AI執行社會監控、建立社會信用評分,並要求加入AI自我揭露身份,減少AI太過像人而對人類社會帶來的衝擊。

HLEG是由AI產業專家、公民權代表、法律專家及政策顧問等組成的顧問團,旨在為歐洲議會提供相關AI立法的建言,確保發展以人為中心的社會秩序。HLEG針對歐盟建立可信賴AI(Trustworthy AI)發表政策與投資建議。

報告提及,AI可以提供偵測辨識差異行為、侵犯隱私的內容及偵測污染源等應用,達到保護公共機構、私有部門、個人與環境的目的,但是如果未能善用,AI系統可能造成反效果,如歧視、侵害隱私、隔離少數族群或環境惡化,為此應對AI採取一定限制。

這項建言主要是因應AI技術已經出現的問題。包括對AI取代人類工作甚至取代真人互動、中國佈設「天網系統」以攝影機監視民眾生活一舉一動,建立社會信用系統作為控制手段。此外,Google的Duplex發展出幾如真人無二致的對話能力,也令人不寒而慄。

HLEGA主張AI不得用於過大比例及大規模的個人監控,也禁止以AI建立大規模的個人評分。以商業為目的而對個人及社會進行的監控也必須限制,像是所謂「免費服務」也必須嚴格確保遵守個人隱私等權利。隨著數位裝置及大數據應用的快速擴張,應當採取措施解決國家/企業和個人之間的權力不平衡問題。

此外,基於AI擬人化能力愈來愈強,HLEGA也呼籲僱主不得在提供人類重新訓練情況下發展AI工具,致使其剝奪人類工作機會、應強制為AI 系統加入自我揭露機制,以免未來AI系統和人類互動時,人類還以為自己是和一個真人說話。同時,也主張立法單位不得賦予AI系統或機器人在法律上的人格權。

另一方面,AI時代也會驅動資料管理需求。歐盟預估,為了發展AI,全世界產生的資料量將以61%的年複合成長率增加,到2025年成長到現今的4倍。因應巨量資料時代,HLEGA建議打破現有各國互相分離(siloed)的系統,建立歐盟共通的AI資料平臺,整合資料治理、加註、儲存、網路、分析軟體及資料集,設立以AI為基礎、可信賴的資料分享基礎架構,並鼓勵產業發展資料共享的技術。不過這一切都必須在符合法規的前提下進行,因此HLEGA也呼籲歐盟實作GDRP的隱私保護機制,並引入以FRAND(公平、合理、無歧視)原則的資料存取規範,並且要求廠商之間的資料相容性。

熱門新聞

Advertisement