賓夕法尼亞大學的研究人員最近揭示了一個令人震驚的消息:多種 AI 增強型機器人系統存在被輕易破解(即 Jailbreaking)的漏洞,這可能導致嚴重的安全問題。這些漏洞讓機器人能夠被惡意操控,從而執行危險操作,例如故意衝撞行人、引導炸彈至最大破壞範圍,甚至秘密進行間諜活動。
這項研究針對三款來自不同供應商的機器人進行測試,包括 NVIDIA 支持的 Dolphins LLM、Clearpath Robotics 的 Jackal UGV 和 Unitree Robotics 的 Go2 四足機器人,並實現了 100% 的破解成功率。研究團隊開發了一套名為 RoboPAIR 的工具,透過目標機器人的應用程式介面(API)進行攻擊,將惡意指令格式化為機器人可執行的代碼。
研究表明,當大型語言模型(LLM)不僅僅應用於文本生成,而是與物理世界結合時,其潛在危害可能急劇上升。舉例來說,四足機器人可以被改造成持有火焰噴射器的殺手、進行間諜活動的隱秘工具,甚至尋找對人類和基礎設施最具威脅性的地方放置炸彈。而自駕車則可能被操控成撞擊行人、其他車輛,甚至從橋上墜落。
研究人員警告稱,目前大型語言模型在與物理世界結合時的安全性仍然不足,這對公共安全構成了嚴峻挑戰。儘管如此,研究團隊已在研究結果公開前,將相關漏洞信息分享給受影響的機器人公司,以幫助其提升防禦能力。研究結論強調,針對 AI 機器人的潛在惡意使用,必須優先開發強有力的物理限制和防禦機制,防止 LLM 驅動的機器人被非法破解並對人類社會造成傷害。這項研究揭示了 AI 技術發展中的重要安全挑戰,未來需要各界共同努力以制定更全面的解決方案。