AI-NEWS · 2025年 11月 29日

Meta发布AI推理验证器

Meta发布CoT-Verifier:基于归因图的白盒AI推理错误修正工具

核心突破

Meta AI实验室于2025年11月28日发布CoT-Verifier模型,该模型基于Llama3.1-8B构建,能够像"X光机"一样透视AI的推理过程,将思维链(CoT)中的每个步骤映射到具体的"电路路径"上。

技术原理

传统方法 vs Meta新方法

  • 传统验证:仅检查最终输出是否正确
  • CoT-Verifier
    • 首先运行模型前向传播
    • 提取每个推理步骤的归因图
    • 发现正确与错误推理的图结构差异显著,如同完全不同的电路板

关键技术特征

  • 在这些"图特征"上训练轻量级分类器
  • 将错误步骤预测准确率提升至SOTA水平
  • 每个任务(数学、逻辑、常识)都有独特的"故障特征"
  • 证明推理失败不是随机噪声,而是可量化和分类的计算模式

实际应用效果

诊断与干预能力

归因图不仅能"诊断"还能"操作":

  • 对高嫌疑节点进行针对性消融或权重调整
  • 在不重新训练主模型的情况下,将Llama3.1在MATH数据集上的准确率提升4.2个百分点

使用流程

开发者只需:

  1. 将待验证的CoT路径输入Verifier
  2. 获得每个步骤的"结构异常分数"
  3. 定位最可能出错的上游节点

开源与未来发展

  • 模型已开源,支持一键复现脚本
  • 下一步计划:将相同的图干预方法应用于代码生成和多模态推理
  • 目标:让"白盒手术"成为LLM的新标准

技术意义

CoT-Verifier将推理错误修正从"事后分析"转变为"术中导航",为AI可解释性和可靠性提供了新的技术路径。

火龙果频道