
當AI機器人越來越聰明,如何讓它更安全(下)
傳統機器人若失控,可能導致操作失誤的風險,隨著大型語言模型(LLM)被導入具身AI機器人作為「大腦」後,一旦被攻擊者找到破口,後果不僅是資料外洩或服務中斷,原本的意外將有機會轉變為有明確意圖的惡意襲擊,可能造成難以挽回的人身安全危害,並直接影響現實世界。
2025年,具身AI機器人從實驗室進入工廠的應用將更為普遍
隨著AI模型發展得更為成熟,由輝達(Nvidia)創辦人暨執行長黃仁勳提出的物理AI(Physical AI),將使得工業革命邁入全新階段,推動各種產業的全面革新,規模甚至大於純雲端AI
文 /|2025-09-26
如何確保機器人是好的機器人?大腦AI模型安全是關鍵
具身AI讓機器人傷害事件從「意外」轉為「襲擊」,關鍵原因就是:機器人採用的AI模型,不論VLM、VLA甚至其他模型遭到駭客濫用,我們都必須設法避免AI模型不會遭到駭客不當注入提示詞,或因語言模型的不連續性導致的資安風險等,進一步從根本防範具身AI模型遭到致命攻擊
文 /|2025-09-26
從物理到心智的全方位威脅!揭露具身AI機器人攻擊路徑
AI機器人正從實驗室走向現實世界,它們的資安風險已經不只是資料外洩,還可能直接威脅人身與公共安全。當AI機器人有了「身體」和「大腦」,它們可能遭遇各種攻擊:有人可能利用硬體漏洞入侵,有人會試圖操控AI模型,甚至有人會竄改機器人收集的資料。對此,產業界必須從設計一開始就全面防護,政府也要制定標準與政策,確保AI機器人安全可靠地走入我們的生活
文 /|2025-09-26
機器人資安檢核表是行業「資安查核基準」的起點
VicOne LAB R7實驗室對外公布一份詳盡的機器人資安風險檢核表,希望可以為整個機器人產業鏈、企業甚至個人使用者,提供一套確認資安風險的基本查核基準
文 /|2025-09-26
按讚加入iThome粉絲團追蹤




