圖片來源/KPMG

面對各種生成式AI的應用日益普及,固然帶來便利,但越來越多人更關注AI治理可能面臨的風險。

臺灣KPMG安侯企管顧問執行副總經理林大馗表示,進一步參考SSDLC(安全的軟體開發生命周期)、各國家的AI法案和各種AI標準,我們可以發現,如果要落實AI的風險治理,可以先從落實數據治理、雲端治理、資訊治理,接下來,才能再進一步做到AI治理,繼而推動AI治理最終目的:利害關係者都願意相信演算法會做正確的決定。

而他認為,不論企業或是組織想要做到AI治理,都應該建立一個可供參考的框架,進而提升AI的信任度,並且做到AI的風險評估,以及AI的治理,這些都會是整個人類社會必須共同面對的重大挑戰。

參考安全的軟體開發生命周期、各國AI法案和多種AI標準後,KPMG認為,企業與組織若欲落實AI的風險治理,可以先從數據治理、雲端治理、資訊治理之後,再來做到AI治理,目的就是要做到利害關係者,願意相信演算法會做正確的決定。圖片來源/KPMG

先做到數據、雲端、資訊的治理,才能做到AI治理

「慎始!」林大馗表示,所有的AI應用最重要的,就是剛開始要決定「範圍」,包括:科技應用情境與治理範圍。

然後做到「分析」科技應用責任後,再「識別」目標使用者應用的目的與情境,下一步,便可以「評估」AI應用情境與適法性風險。

後續須做到「數據治理」:評估數據品質風險,確認資料來源與正確,也須對相關AI應用進行「AI風險評估」;接著進行「資訊治理」:評估其他雲端服務與資訊設備面向衝擊,例如,所運用的演算法是否可能遭受其他攻擊,或是隱私保護缺陷等風險。

接著,進入「決定AI應用範圍與發展生命週期階段」,選擇演算法或第三方大型模型,並在AI設計過程「融入隱私與安全」,同時做到保存相關處理記錄,接下來還要進行「演算法調校與測試」:不僅要做到演算法效能與安全分析,還要測試數據深度學習,並且要確認演算法是否能夠滿足需求。

最後,在導入、部署與深度學習後,還是要做到「持續監控」與改善,並對使用者進行安全「教育訓練」、宣導與應用推廣,還可以視需求,進行「獨立確信與審驗」。

圖片來源/KPMG

AI成駭客詐騙、偽冒身分利器,「眼見為憑」將不可信

對於企業和組織而言,又該如何架構AI資安防護呢?林大馗說,包括強化基礎網路架構韌性,以及打造多層次零信任架構(Zero Trust),這些都是可行的方法。

他進一步指出,目前AI已經可以做到的方式,包括:使用AI來訓練防禦系統,識別和防禦AI攻擊;也可以建構多層次網路安全措施,提高防禦AI攻擊的有效性。

另外,也要做到定期更新安全軟體和修補漏洞,減少AI攻擊的成功率;提高員工的安全意識,可以幫助員工識別和防禦AI攻擊。

對此,林大馗提出生成式AI遭網路犯罪集團濫用,提高虛擬犯罪效率的例子。

因為這些隱藏在網路背後的虛擬綁匪,已經能夠做到利用語音複製、SIM卡挾持、ChatGPT以及社群網路分析與傾向(SNAP)模型,尋找最有利可圖的目標並執行詐騙。

又或者這些網路犯罪份子都開始利用AI工具,建立層層自動化蒐集資訊、發掘魚叉式網路捕鯨,或以愛情詐騙手法攻擊高知名度受害者。他坦言,現在蓬勃發展的生成式AI,已經成為軍火庫,駭客能藉此發動各種網路攻擊、入侵,甚至,可以成功達到詐騙目的。

另外,也有駭客成功利用深偽技術(Deepfake)偽冒身分驗證。

他表示,現在的AI深偽變臉技術,已經可以製造出逼真的虛假影像和聲音,仿真度極高,加上AI變臉軟體還內建許多來自不同人種的臉部圖片,甚至連名人、明星照片也有,可以讓使用者自由選擇性別及種族。

他指出,這些遭到偽冒的深偽影像,就算從正面觀看,都可以做到以假亂真,很容易讓民眾誤判,以為偽冒者是被害者本人、檢警或名人。

當生成式AI做到以假亂真,林大馗指出,企業對網路基礎架構也會有縱深防禦要求,從企業組織內部的使用者開始,一直到要面對組織外的風險,在整個工作環境的範圍之內,都必須布建各種基礎的資安防護設備,目的就是要做到建構零信任網路架構,並且能夠即時進行漏洞更新修補。

林大馗表示,單靠基礎的資安防護設備,並不足以對抗這些生成式AI對企業、組織甚至是個人帶來的資安風險。

所以,我們還必須做到進階防禦強化的要求,例如在公開影片添加專屬雜湊值,或是安全憑證;或善用現階段機會,趁深偽技術存在未能完整學習受複製對象側面的技術缺陷,可要求以生物認證方式來識別對象,左右轉頭90度並維持一小段時間,因為如果是利用深偽技術所偽造的影片,可能會產生人臉閃爍的情況。

以其他作法而言,我們可擴大運用「MFA多因子認證」,要求使用者必須通過兩種以上的身分認證機制,之後才能取得授權。

另外,可以採用零信任「永不信任、總是驗證」的資訊架構,包含以每個連線為基礎,評估每個資源請求者的存取要求等機制,避免使用一次性驗證後,就可以長時間與完全取用所有服務的傳統做法。

甚至,我們要能夠讓使用者建立「眼見不為憑」的警覺,讓一般民眾能夠充分理解到:過去習慣的「有圖有真相」的心態,已經到了必須改變的時候,不然,這就可能淪為一種「看片都上當」的習性。

為了架構足以因應AI資安風險,臺灣KPMG安侯企管顧問執行副總經理林大馗表示,企業必須打造基礎網路架構的韌性,從內部使用者到面對組織外的環境,都必須建構具備零信任的網路縱深防禦,並做到即時漏洞更新。圖片來源/KPMG

利用3種方式提升AI方案的可信任度

為了成功推行人工智慧(AI),組織與社會必須能夠相信AI會做出正確的決策,而且AI不會做出錯誤的決定,KPMG目前提出名為「人工智慧風險控制與管理」的框架。

這個框架包含3種促進人工智慧解決方案取得信任的方法,希望透過提升演算法的信任,讓「生成式AI」可以提升到「生產力AI」。

林大馗指出,這些方式分成:(1)與其他決策方法∕模型來做結果比對;(2)介入理解與驗證人工智慧模型;以及(3)於可控的環境中發展人工智慧解決方案。

他也進一步解釋,舉例說明3種方式可能面臨的結果。

若以(1)與其他決策方法∕模型來比對結果,可能面臨下列幾種情形,例如:其他可靠的決策方法或許不存在;更換模型或開發替代方案,並非總是可行的;如果有其他決策來源,為何還需要發展人工智慧解決方案?

若採用(2)介入理解與驗證人工智慧模型的方法,也可能面對模型或許過於複雜,以至於人類無法予以解釋或理解。因為模型本身使用深度神經網路(Deep Neural Networks),眾所皆知,這項技術的運作原理很難解釋。

如果是採用(3)在可控的環境中發展人工智慧解決方案,同樣會面臨挑戰。例如,於安全的環境中,技術人員使用嚴謹的方法論,並不能保證品質結果;在資料科學領域中,使用較嚴謹的方法,與AI領域常用的敏捷與較前瞻的方法,可能有所違背。

林大馗坦言,無論用何種方式提高AI解決方案的信任度,但實際上,都有其限制。

對此,KPMG發展出一套「人工智慧風險控制與管理的治理框架」,期盼協助組織與企業利用上述三種方法,定義出最優良的控制措施組合。

為了成功推行人工智慧,組織與社會必須能相信它會做出正確的決策,並且不做出錯誤的決定。KPMG為此提出「人工智慧風險控制與管理」框架,期盼透過三種方法的運用,促使人工智慧解決方案的發展與應用能夠得到更大的信任。圖片來源/KPMG

落實AI資安整備度之餘,也必須培養AI治理團隊

面對AI甚至是生成式AI的日益發展,組織、企業甚至是個人是否都已經做好足夠準備?面對AI時代的來臨,又該進行何種前瞻的資安布局呢?

林大馗認為,所有的組織和企業應該要做到AI資安整備度分析,以及培養AI治理團隊智識與人才地圖。

在AI資安整備度分析方面,我們可以從五個面向來看,包括:人才投入、研發與市場經營、生態鏈合作、基礎建設、法規。

先從人才投入的面向來看,企業與組織要能夠做到外部機構的AI資安協同合作、AI安全開發,以及使用AI解決方案的宣導活動,以及制定AI安全性的指引與實務守則。

而從研發與市場經營的面向來看,企業須提高對AI安全能力的必要資源投入、制定國家對AI發展的限制與安全規範,落實相關規範與監控機制。

針對生態鏈合作的面向,包括AI的API管理、數據品質、資料交換安全、開放資料(Open-Data)治理等,需要處理的內容包括:

●    AI事件通報與處理

●    AI威脅、漏洞和安全控制情資

●    如何和外部機構合作,有效處理AI相關事件

●    定義∕開發∕使用特定的網路安全度量或指標

●    監控AI系統生命周期中的安全水平

●    要求AI利益相關者進行動態風險評估

●  對違反數據和模型完整性進行制裁

關於基礎建設面向中,像是數據、演算法、通訊等,都包含在內,要處理的對象,則包括:監控開發人員、關鍵基礎設施廠商等AI利害關係者,都要採取合宜的安全控制措施,以及定義AI利害關係者的安全控制措施。

最後的法規面向,涵蓋AI道德規範、AI標準、AI與數據治理相關法規,例如歐盟人工智慧法案(AI Act),以及歐盟個資法GDPR等。因此,我們要處理的內容,包括:法規盤點與風險識別;監控AI資料集的完整性和品質;並建立認證或評估機制,以評估AI系統安全。

要能夠推廣和應用AI,企業在AI治理團隊與人才地圖中,除了「詠唱師」,還需要「調音師」。

林大馗表示,在人才投入面向,企業成立當責AI治理委員會、制定AI策略與延聘治理顧問,並落實AI安全性的指引與實務守則。

如果是在研發與市場經營面向上,企業與組織除了要制定AI策略,以及延聘治理顧問,也必須要設立AI安全稽核師和AI生命週期安全小組。

至於生態鏈合作面向上,要成立資安事件管理小組,成立針對AI威脅、漏洞和安全情資的管理小組,以及AI生命週期安全小組,對於AI生態鏈與委外廠商,也必須成立相關的管理小組。

至於基礎建設面向上,企業除了要有AI策略與治理顧問,也必須要有AI生態鏈與委外廠商的管理小組,以及網路安全小組。

最後在法規面向上,企業則要有數據品質管理的管理小組、數據法規專家小組,以及建立認證或評估機制,以評估AI系統安全性。

想開發安全可信的AI應用,可依據WEF的指引設計

林大馗認為,對於設計各種AI產品或服務,我們可以參考世界經濟論壇(WEF)在2022年3月發布的指引《Artificial Intelligence for Children》,其內容可以統稱為FIRST指引,當中包括了五大項目,分別是:Fair(公正)、Inclusive(包容)、Responsible(負責)、Safe(安全),以及Transparent(透明)。

「公正」是從公司文化和流程層面,解決人們如何開發AI模型,以及AI模型在使用中,所受到道德方面的影響與偏見問題。

「包容」則是留意到AI模型如何與來自不同文化,以及不同能力的用戶公平互動,所以,在產品測試的過程中,需要包括不同類型的用戶。

所謂的「負責」,主要是因為AI相關產品常反映當下最新的學習科學和科技應用範例,畢竟,最終發展AI,就是要做到如何實現健康的認知、社交、情感或身體發展,並且負起相關的責任。

關於「安全」這一項要求,主要是因為AI技術必須做到保護用戶和購買者得數據,因此,應用AI提供產品或服務的公司,應該要披露其如何收集和使用數據及如何保護數據與用戶隱私,也允許用戶隨時選擇退出,並刪除他們的數據。

「透明」則是要求提供AI產品或服務的公司,必須要能夠以非技術術語向買家和用戶解釋為什麼使用AI、AI如何工作以及如何解釋AI的決策過程;使用AI的公司也必須承認AI有其侷限性和潛在風險,並開放監督和稽核。

林大馗指出,所有組織或企業使用AI的初衷,都是為了提供更好的產品和服務,若能參考這份簡稱為FIRST的AI應用指引,不僅可以提供保護,降低AI對孩童造成的可能風險,也是應用AI時,應該要關注的重點。

熱門新聞

Advertisement