Google Gemini 遭遇大规模模型蒸馏攻击,单次泄露核心逻辑的提示词超10万条
发布日期:2026年2月15日
来源:AIbase Daily
事件概述
当地时间2026年2月12日,谷歌披露其AI聊天机器人Gemini正面临大规模“模型蒸馏攻击”。攻击者通过海量重复提问,诱导模型泄露其内部机制。在某些攻击实例中,单次攻击的提示词数量超过了10万条,引发了业界对大模型安全性的高度担忧。
攻击详情与目的
- 攻击手法:通过反复测试Gemini的输出模式和逻辑,以探测其核心内部机制。
- 核心目标:提取Gemini的“推理”算法,即其处理信息的核心决策机制。
- 最终意图:克隆目标模型或增强攻击者自身的AI系统。
攻击者与影响范围
- 攻击者身份:主要出于商业动机的行为者,通常是寻求竞争优势的AI私营公司或研究机构。
- 攻击源分布:全球多个地区。
- 行业警示:谷歌威胁情报团队首席分析师约翰·霍特奎斯特指出,此次攻击的规模发出了危险信号,表明此类模型蒸馏攻击可能已开始蔓延至中小企业的定制化AI工具领域。他将谷歌的遭遇比作“煤矿中的金丝雀”,意味着大平台面临的安全危机预示着整个AI行业即将到来的广泛风险。
性质与挑战
- 性质界定:谷歌强调,模型蒸馏攻击本质上构成知识产权盗窃。大型科技公司为开发大语言模型投入了数十亿美元,这些模型的内部机制是核心专有资产。
- 防御挑战:尽管行业已部署了识别和阻止此类攻击的机制,但主流大模型服务的开放性使得从根本上避免此类风险十分困难。
潜在危害与未来预警
霍特奎斯特警告称,随着越来越多的公司训练包含内部敏感数据的定制化大模型,模型蒸馏攻击的潜在危害将持续扩大。攻击可能导致企业通过多年积累的商业洞察和核心知识被逐步提取。
关键数据点
- 单次攻击提示词数量:> 100,000 条
- 披露日期:2026年2月12日
- 事件性质:大规模模型蒸馏攻击(知识产权盗窃)
