警惕无防护的开源AI:研究称缺乏监管或成黑客劫持的温床
核心发现
近期,网络安全公司SentinelOne与Censys联合发布的一项深度研究揭示,开源大语言模型面临严重的安全挑战。研究发现,当这些模型在外部私有计算机上独立运行,脱离了主流托管平台的“护栏”和安全限制后,极有可能成为黑客和犯罪分子的目标,导致严重的安全风险。
研究详情
- 研究时长:近300天。
- 暴露规模:研究发现互联网上存在数千个未受保护的开源AI实例,其中包括许多基于Meta的Llama和Google的Gemma等主流模型的衍生版本。
- 防护失效:尽管部分开源模型内置了安全防御,但研究人员仍发现了数百个安全防护被恶意移除的案例。
风险本质
安全专家将这种现象描述为行业视野之外的“冰山”:开源算力在支持合法用途的同时,也被用于犯罪活动。
攻击者利用方式
攻击者可劫持这些实例,迫使模型进行以下恶意行为:
- 生成大量垃圾信息。
- 编写精准的网络钓鱼邮件。
- 发起大规模虚假信息宣传活动。
关键技术漏洞
研究团队重点关注通过Ollama工具部署的开源实例,发现以下关键漏洞:
- 在约25% 的被观察实例中,黑客能够直接读取模型的“系统提示词”(即决定模型行为的核心底层指令)。
- 进一步分析显示,其中7.5% 的指令已被修改,以支持有害行为。
影响范围
此风险场景影响广泛,包括但不限于:
- 仇恨言论传播
- 暴力内容生成
- 个人隐私数据窃取
- 金融诈骗
- 涉及儿童安全的内容
根本挑战
由于这些模型绕过了大型平台的监控机制,传统的安全措施往往无法有效发挥作用。
信息来源:AIbase Daily,基于SentinelOne与Censys的联合研究。发布日期:2026年1月30日。
