圖片來源: 

CC 2.0 by Et-Zeichen

來自14個不同組織的26名人工智慧(AI)專家於本周發表了長達100頁的《AI的惡意使用:預測、預防與緩解》研究報告,警告各種AI應用可能衍生的犯罪、實體攻擊或政治破壞等負面影響,並提出因應之道。

來自牛津大學、劍橋大學、OpenAI及電子前線基金會(EFF)等組織的專家們一方面認同AI與機器學習技術可造福諸如翻譯、醫學影像分析等應用,同時也可能遭到濫用,隨著AI能力愈來愈強大及普及,除了會擴大既有的威脅之外,也將帶來新的威脅,並有機會改變傳統的威脅型態。

該報告主要研究AI在三大方面的威脅,分別是數位安全、實體安全,以及政治安全。在數位安全上,專家們擔心的是自動化的網路攻擊行動將擴大現有攻擊的規模與效率,亦預期會出現專門開採人為疏失、軟體漏洞與AI系統漏洞的新型態攻擊行動。

也預期AI將能擴大藉由無人機或其它系統所展開的實體攻擊,或是顛覆傳統攻擊的新模式,如造成自駕車撞毀,或是遠端操控數千架無人機以展開攻擊等。

此外,AI還能被用來破壞政治安全,以AI分析大量資料以進行監控,建立有特定目的的宣傳活動或欺騙行為,或者發展出新型態的攻擊,像是進一步分析人類的行為、情緒及信仰以發動攻擊,此一破壞能力除了在極權國家特別明顯之外,也可能破壞民主國家的公共辯論。

為了避免或緩解隨著AI與機器學習技術而來的陰影,專家們建議立法者應與研究人員密切合作,尋求立法上的解決之道,也呼籲AI研究人員及工程師能認真看待相關技術的雙重面向,在預見可能造成的傷害時伸出援手。此外,研究領域應確認解決上述問題的最佳實作方法,並將它們導入至各種AI應用。

熱門新聞

Advertisement