繼英國去年主辦的第一屆AI安全高峰會(AI Safety Summit),邀請28個國家共同簽署《布萊切利宣言》(Bletchley Declaration),就AI的風險達成共識之後。本周於韓國首爾舉行的AI高峰會(AI Seoul Summit)則凝聚了全球的16家AI業者,針對前沿AI的安全性達成承諾(Frontier AI Safety Commitments),包括Amazon、Anthropic、Google、IBM、Inflection AI、Meta、微軟、OpenAI及三星等。

這16個組織承諾自願負責任地開發與部署前沿AI模型與系統,同時預計於明年初在法國舉行AI行動高峰會(AI Action Summit)之前,發布一個專注於嚴重風險的安全框架。

相關組織承諾開發與部署前沿AI模型系統時得以有效的識別、評估及管理風險,涵蓋自訓練到部署的整個AI生命周期,將同時考量內部與外部的評估;它們也將設定一個模型或系統構成嚴重風險的閥值,該閥值也將參考國際協定;同時闡明如何識別及實施風險緩解措施,以將風險保持在規定的閥值內。

而在極端情況下,倘若無法透過緩解措施將風險保持在閥值以下,這些AI巨頭承諾將停止開發或部署其模型或系統。

熱門新聞

Advertisement