Photo by Steve Johnson on Unsplash

美國網路安全暨基礎架構安全管理署(CISA)及英國國家網路安全中心(NCSC)發表《安全AI系統開發指引》(Guidelines for Secure AI System Development),號稱首份全球AI安全標準,從設計階段強化系統安全性,以防範可能的資安風險。

這份指引是由包括美、英、德、法、日、韓、新加坡在內18國,以及微軟、Google、OpenAI、Anthropic、Scale AI共23個網路安全組織參與制訂。該指引提供AI系統開發的必要建議,並彰顯開發AI系統,應遵循安全設計(Secure by Design)的原則。CISA指出,這份指引強調把客戶安全、極度透明及權責、以及建立安全設計的組織架構列為優先要項。

這份指引適用於所有類型的AI系統,而不只是尖端模型,也涵括其他像是使用外部代管模型或API開發的系統。指引包含4個主要部分:安全設計、安全開發、安全部署及安全維運(operation and maintenance)。每部分都提出安全風險可能,以及避免方法,以協助資料科學家、開發人員、經理、決策者及負責人員進行決策,從開發過程中降低網路安全風險。

最新指引是美國拜登政府倡議強化AI系統安全及可控制性,以保障美國安全與利益的一環。白宮7月間取得7大AI公司自主管理AI風險的承諾,10月拜登簽署首份AI行政命令,責成國土安全部制定AI安全標準,並推動全球組織採用。CISA也在同月發表10大資安錯誤配置,以協助企業組織及軟體業者強化資安措施、降低攻擊風險。

熱門新聞

Advertisement