
Photo by Solen Feyissa on Unsplash
美國紐約州參議院在上周四(6/12)通過了 AI安全法案《RAISE Act》(Responsible AI Safety and Education Act),目的在於預防OpenAI、Google或Anthropic等大型開發者所建置的前沿AI模型帶來重大傷害,該法案將會送給紐約州長Kathy Hochul簽署。
《RAISE Act》主要規範大型開發者所打造的前沿模型(Frontier Model),像是在訓練過程中使用超過10^26的運算操作,且其訓練成本超過1億美元的AI模型,或者是利用知識蒸餾方法從上述前沿模型衍生的模型,只要其訓練成本超過500萬美元,就被視為是前沿模型。
至於重大傷害指的是由前沿模型直接或間接造成超過100人死亡或受傷,或是逾10億美元財產/金錢損失的事故,例如用以製造大規模毀滅性武器,或是自主從事刑事行為。
該法案亦要求模型開發者必須描述合理的保護措施與程序,公開對前沿模型的控制,以及揭露安全事故等,違反者最多可被判罰1,000萬美元。
共同提出《RAISE Act》的紐約州參議員Andrew Gounardes表示,此一法案旨在確保AI蓬勃發展,同時要求大型業者制訂安全計畫,確保沒有人會為了追求利潤而偷工減料,或是將利潤置於安全之上。Gounardes形容,如同沒有家長會讓小孩搭乘一輛沒有安全帶與安全氣囊的汽車,人們也不應該使用一個缺乏基本安全措施卻功能強大的AI系統。
去年加州參議院也通過一個AI安全法案SB 1047,它同樣只針對大型AI模型,並要求開發者應該設計一個得以關閉模型能力的開關,但最後遭加州州長Gavin Newsom否決,原因是Newsom認為大、小模型都一樣危險,只針對大模型過於狹隘。倘若Hochul簽署了《RAISE Act》,將成為美國首個強制要求AI實驗室透明化的法令。
熱門新聞
2025-12-12
2025-12-16
2025-12-15
2025-12-15
2025-12-15
2025-12-15
2025-12-16
2025-12-15