當AI機器人越來越聰明,如何讓它更安全(下)

傳統機器人若失控,可能導致操作失誤的風險,隨著大型語言模型(LLM)被導入具身AI機器人作為「大腦」後,一旦被攻擊者找到破口,後果不僅是資料外洩或服務中斷,原本的意外將有機會轉變為有明確意圖的惡意襲擊,可能造成難以挽回的人身安全危害,並直接影響現實世界。

如何確保機器人是好的機器人?大腦AI模型安全是關鍵

具身AI讓機器人傷害事件從「意外」轉為「襲擊」,關鍵原因就是:機器人採用的AI模型,不論VLM、VLA甚至其他模型遭到駭客濫用,我們都必須設法避免AI模型不會遭到駭客不當注入提示詞,或因語言模型的不連續性導致的資安風險等,進一步從根本防範具身AI模型遭到致命攻擊

從物理到心智的全方位威脅!揭露具身AI機器人攻擊路徑

AI機器人正從實驗室走向現實世界,它們的資安風險已經不只是資料外洩,還可能直接威脅人身與公共安全。當AI機器人有了「身體」和「大腦」,它們可能遭遇各種攻擊:有人可能利用硬體漏洞入侵,有人會試圖操控AI模型,甚至有人會竄改機器人收集的資料。對此,產業界必須從設計一開始就全面防護,政府也要制定標準與政策,確保AI機器人安全可靠地走入我們的生活

按讚加入iThome粉絲團追蹤