AI-NEWS · 2026年 1月 24日

Curl终止漏洞赏金

curl项目终止漏洞赏金计划,主因AI生成低质量报告泛滥

发布日期:2026年1月23日
来源:AIbase Daily
阅读时长:约3分钟

核心事件

流行命令行工具curl的开发者团队近日宣布,将于2026年1月底正式终止其在HackerOne平台上的漏洞赏金计划。终止的主要原因是大量由AI生成的低质量虚假漏洞报告对维护团队造成了沉重负担。

关键数据与影响

  • 时间线:计划于2026年1月31日结束,2月1日起不再提供任何漏洞报告的金钱奖励。
  • 报告数量:仅在宣布前的16小时内,团队就收到7份无效报告;自2026年初以来,总提交量已达20份。
  • 团队规模:curl由较小的维护团队支持,人工审核这些报告压力巨大。

官方声明与措施

curl创始人Daniel Stenberg将这类内容称为 “AI Slop” ,指出它们看似专业,实则毫无实质贡献,反而消耗了开发者的精力。为保护开发者心理健康并确保项目可持续性,团队决定关闭该计划。

后续安排

  1. 报告渠道变更:未来安全问题将直接通过GitHub报告。
  2. 奖励取消:不再提供金钱奖励,也不协助研究人员从第三方获取补偿。
  3. 明确警告:在安全文件(security.txt)中声明,提交垃圾报告的用户可能被封禁甚至公开嘲笑

背景延伸:AI生成内容的乱象

本次事件并非孤例,近期多起案例凸显了AI生成内容滥用带来的挑战:

事件 关键数据 日期
Reddit虚假曝光帖 AI生成的指控外卖平台帖子获8.7万点赞后被揭穿 2026年1月7日
虚假逮捕图片 委内瑞拉领导人被捕的AI假图获数百万浏览 2026年1月6日
YouTube封禁AI频道 两个伪造电影预告片的频道被永封,累计10亿次观看、200万订阅 2025年12月19日
番茄小说投稿激增 新书投稿量增长1302%,编辑邮箱被AI内容淹没 2025年11月19日

行业反思

这一趋势促使各平台加强治理:

  • 内容审核:在线文学、社交视频等平台正升级检测机制,但有时误伤真实创作者。
  • 技术应对:研究界也在寻求提升效率(如MIT的LLM动态计算资源调整方法)与验证自动化,以缓解AI发展中的瓶颈。

curl的决定标志着开源项目在面对AI生成内容泛滥时的现实应对——当自动化工具被滥用时,维护社区健康可能比保持开放奖励更为紧迫。

火龙果频道