今年AI議題持續成為最大焦點,近期國內外的公部門有兩大資安政策,是我們特別關注的重點,包括:(一)政府針對生成式AI帶來的風險,提出對公部門的正式規範文件,8月底通過「行政院及所屬機關使用生成式AI參考指引」草案;(二)政府帶頭鼓勵用AI改善資安,美國白宮在全球重要資安大會Black Hat USA宣布,啟動AI Cyber Challenge(AIxCC)駭客大賽

隨著生成式AI與大型語言模型(LLM)的持續演進,由於這類應用具有提高生產力與效率的潛力,因此成為各界備受看好的技術潮流,然而,其引發的資安風險也不斷成為話題。

在推動負責任的AI之餘,安全使用AI也是現今重點。一兩個月前,英國、澳洲政府都提出公務員使用生成式AI指南,到了8月底,我國通過「行政院及所屬機關使用生成式AI參考指引」草案,參考其他國家作法之餘,並請國內多方專家共同擬定而成,希望促進其他機關參考,也能訂定自己的管理規範。

為何我們需要建立對生成式AI的正確觀念?例如,若是將公司或個人的敏感資料用於與公眾型的AI服務互動,大家在與AI互動過程所輸入的各種內容,有可能會被不負責任的AI服務蒐集,用於機器學習訓練,而且,可能沒有人保證這些資訊是否間接提供其他用戶參閱,恐怕引發資料外洩風險。

根據各界實際測試經驗,我們可看出現階段生成式AI能力雖然比過去進步不少,已到達堪用的程度,可以給出更準確的答案,但仍有不低的機率會給出錯誤的內容,因此仍處於必須持續改善的階段,有很多問題與狀況需要持續檢討與調校。

無論如何,我們必須理解AI的優勢和應用價值,同時也要理解其面臨的挑戰與限制,因此,對於AI產出的資訊,使用者在探索其適合的應用場景時,仍需要進一步確認是否合乎自身需求,不能盲目信任,畢竟AI無法負責,只有人能負責。

這就像在網路上使用搜尋引擎,我們必須辨別資訊是否有用、正確,使用生成式AI也是如此,雖然不再需要在一大堆搜尋結果找到合適的內容,對話與互動感更強烈,但我們實際應用時要秉持的核心精神是共通的,那就是需由人來把關與判定。

另一個重點,就是各國正在發展AI資安應用,希望用AI打造能辨識、修補關鍵基礎設施安全漏洞的解決方案,而且政府支持力量越來越大。例如,美國白宮8月宣布啟動為期兩年的AI Cyber Challenge(AIxCC)競賽,由國防高等研究計劃署(DARPA)主辦,祭出2千萬美元的總獎金,重點放在改革美國關鍵國家基礎設施與軟體供應鏈安全。

此消息亦受其他國家關注,8月底資安院舉辦2023臺灣資安人才培力研究報告研討會,也有專家特別談及此議題。

中央研究院資訊科技創新研究中心研究員兼資通安全專題中心執行長李育杰表示,先前臺灣AI行動方案2.0規畫時,特別提到希望用AI來解決國家社會面臨的問題,因為人力不足就是其中一項挑戰,尤其是資安領域,因此,希望透過擴大基礎課程培訓之下,若透過AI打造更多的工具,將讓有能力的資安人員可以借助這些AI工具,就可以一個人完成更多事情。

曾帶領HITCON CTF 駭客戰隊領隊,現為聯發科技資深經理的李倫銓,在這場活動的演說也指出,美國DARPA在2013年發起CGC漏洞自動攻防比賽,當時是有鑑於漏洞迭代率太大,單靠有限的人力去解決是不夠的,所以發起這項活動。因此,每個隊伍要研發出一臺CRS網路推理決策系統的機器人,設法找出軟體漏洞、修補軟體問題、分析攻擊,並且自動產生防禦機制等。

基本上,當時的自動化漏洞挖掘,主要是靠Fuzz模糊測試,現在2023年美國DARPA主辦AIxCC競賽,則是靠AI,並聚焦在關鍵基礎設施如電力網路的漏洞檢測與修補,以及開源軟體安全。

無論如何,AI對資安帶來新挑戰,也衍生前所未有的機會,國際最新發展動向也將是臺灣可借鏡與思考的,我們必須關注後續發展,發揚技術優勢,並積極參與各種合作。

專欄作者

熱門新聞

Advertisement