新研究揭示AI模型提取新方法
最近,北卡罗来纳州立大学的研究人员提出了一种通过捕获计算机发出的电磁信号来提取人工智能(AI)模型的新方法。该技术实现了超过99%的准确率,这一发现对商业AI的发展提出了挑战,尤其是在OpenAI、Anthropic和Google等公司投入大量资金开发专有模型的情况下。
技术与现实影响
专家们指出,这种技术的实际应用及其必要的防御措施尚不清楚。CUDO Compute首席营销官Lars Nyman表示,AI盗窃不仅仅是模型本身的损失,还可能引发一系列连锁反应,如竞争对手利用多年的研发成果、监管机构调查知识产权管理不当以及客户因发现其AI“独特性”并非真正独特而提起诉讼。这种情况可能会促使行业倡导标准化审计,类似于SOC2或ISO认证,以区分负责任的公司和不负责的公司。
AI模型的安全威胁
近年来,针对AI模型的黑客攻击威胁日益增加,由于商业世界对AI技术的高度依赖,这一问题变得更加突出。最近的报告显示,数千个恶意文件已被上传到Hugging Face这样的关键AI工具仓库中,严重危及了零售、物流和金融等行业使用的模型。国家安全部门警告称,薄弱的安全措施可能使专有系统面临盗窃风险,正如OpenAI所展示的安全漏洞所示。被盗的AI模型可能会被逆向工程或出售,从而削弱公司投资并侵蚀信任,让竞争对手迅速赶超。
研究方法与防御策略
北卡罗来纳州立大学的研究团队通过在谷歌Edge Tensor Processing Units (TPUs)附近放置探测器并分析其信号,揭示了模型结构的关键信息。这种攻击方法无需直接访问系统,因此对AI知识产权构成重大安全风险。研究共同作者、电气和计算机工程副教授Aydin Aysu强调,构建一个AI模型不仅成本高昂,而且需要大量的计算资源,因此防止模型被盗至关重要。
AI技术的未来走向
随着AI技术日益普及,公司需要重新评估用于AI处理的设备。技术顾问Suriel Arellano认为,企业可能会转向更集中和安全的计算,或者考虑其他较难盗窃的技术。尽管存在盗取的风险,但AI也通过自动化威胁检测和数据分析来提高响应效率,帮助识别潜在威胁并学会应对新攻击。
关键点总结
- 研究人员展示了通过捕获电磁信号以超过99%的准确率提取AI模型的新方法。
- AI模型被盗可能会让竞争对手利用多年研发成果,影响企业安全。
- 公司需要加强AI模型的安全防护,应对日益增加的黑客攻击威胁。