圖片來源: 

geralt on pixabay

Google在周四(6/8)發表了安全AI框架(Secure AI Framework,SAIF),其6個核心元素包括擴大AI生態體系的安全基礎,將資安事件的偵測及回應能力延伸至AI,打造AI的自動化防禦能力,協調平臺等級的控制能力以確保整個組織的安全性,以控制器來調整緩解並形成更快的AI回應,以及建立AI系統周遭商業環境的風險脈絡等。Google期許SAIF得以協助AI產業設立各種安全標準。

Google表示,SAIF發想自軟體開發流程的安全最佳作法,像是供應鏈的審核、測試與控制,再結合對AI系統特有的安全趨勢及風險的理解,一個橫跨公、私領域的安全框架可確保負責任的業者捍衛支援AI進步的技術,以便於導入預設即是安全的AI模型。

在Google所提出的6個元素中,有些很好理解,像是把現有的安全基礎設施、專業安全知識、偵測與回應等技術,延伸至AI生態體系;而在不管是攻擊方或防禦方都開始利用AI之際,更應利用自動化防禦來抵禦既有與新威脅。

此外,確保各個控制框架的一致性將可緩解AI風險,並將保護能力擴大到不同的平臺與工具,對Google而言,此舉包括將安全預設的保護延伸到諸如Vertex AI及Security AI Workbench等AI平臺,並於軟體開發周期中嵌入應有的控制及保護。

亦應藉由持續學習與測試來因應不斷變動的威脅環境,例如基於事件及使用者意見的強化學習,更新訓練資料,調整模型對攻擊的回應策略,或是允許那些用來建構模型的軟體嵌入更多安全機制,也能定期展開紅隊演練來提高AI產品的安全性。

最後,Google認為組織也因針對AI的部署展開端至端的風險評估,包含端至端商業風險的評估,例如針對特定類型應用程式的資料沿襲、驗證及操作行為的監控,以及建構可驗證AI效能的自動化檢查能力。

除了SAIF之外,Google也將與其它組織合作,以共同開發美國國家標準暨技術研究院(NIST)的AI風險管理框架,以及業界首個AI認證標準 ISO/IEC 42001 AI Management System Standard ,並協助客戶及政府機關評估與緩解AI的安全風險,也會持續對外分享各種有關AI安全性的研究與心得。

熱門新聞

Advertisement