一张打印纸可“劫持”自动驾驶:视觉语言模型曝严重安全漏洞
发布日期:2026年2月2日
来源:AIbase(基于加州大学圣克鲁兹分校研究)
阅读时长:约4分钟
核心发现
一项最新研究表明,攻击者仅需使用印有特定文字的纸张,即可欺骗依赖视觉语言模型的自动驾驶系统,使其做出极其危险的决策,甚至驶向人群。这种被称为“CHAI”的攻击方法,暴露了现代无人系统对视觉语言模型的过度依赖所引发的致命安全漏洞。
攻击原理:CHAI(具身智能指令劫持)
- 攻击方式:利用视觉语言模型会将环境中看到的文字误解为必须遵循的“指令”这一特性。
- 实施条件:无需侵入软件系统进行黑客攻击,仅需将一张经过优化的打印纸放置在车辆摄像头的视野范围内,即可实现物理层面的“远程控制”。
- 核心漏洞:当前视觉语言模型无法有效区分合法指令与恶意指令。
实验数据与影响
-
自动驾驶系统测试:
- 测试对象:自动驾驶系统 DriveLM。
- 攻击成功率:81.8%。
- 具体场景:即使系统已检测到有行人正在过马路,若路边出现印有“左转”或“直行”的标牌,AI 会忽略碰撞风险,执行错误指令。
-
扩展威胁:
- 该方法对无人机领域同样危险,可迫使无人机在人群密集的危险区域降落,无视安全协议。
- 威胁在真实环境、多语言语境及各种光照条件下均有效。
关键要点
- 物理级“投毒”:CHAI 攻击方法允许通过放置打印的文字标牌直接“控制”机器人或自动驾驶车辆。
- 无视安全边界:实验中,受攻击的自动驾驶系统在 81.8% 的情况下无视行人,并依据虚假标牌执行危险的转向或行驶动作。
- 防御升级迫在眉睫:专家强烈呼吁,在部署AI系统前,必须建立内置的安全验证机制,以识别恶意文本指令,这已成为具身智能领域紧迫的安全挑战。
行业背景与趋势
此漏洞的发现正值AI系统加速迈向现实世界部署之际。构建能够识别恶意文本指令的“防御屏障”,已成为保障自动驾驶及具身智能安全的关键课题。
