AI-NEWS · 2025年 12月 6日

英伟达发布AI新框架

NVIDIA发布新AI框架:8亿参数模型赋能智能工具管理

发布日期:2025年12月5日
来源:AIbase Daily
核心研发方:NVIDIA与香港大学研究人员联合发布

一、核心内容概述

近期,NVIDIA与香港大学的研究人员联合发布了一款名为 “Orchestrator” 的新型AI模型。该模型拥有 8亿参数,能够协调不同的工具和大语言模型(LLMs)以解决复杂问题。其核心创新在于通过名为 “ToolOrchestra” 的新强化学习框架进行训练,旨在将小型模型培养成智能协调器。

二、技术原理与设计思路

1. 核心理念

研究团队认为,人类在推理时会调用自身智力之外的各种资源,因此LLMs也应具备与多种工具交互的能力。为此,他们提出了从单一模型系统由多个模型组成的复合系统的转变。

2. 工作方式

  • 角色定位:Orchestrator作为一个轻量级的“协调员”,负责管理各种专用模型和工具。
  • 任务处理:分析复杂任务,将其分解为子任务,并根据需要调用合适的工具。
  • 目标:相比单一的庞大AI系统,这种架构能以更高的效率解决问题。

三、性能与成本优势

研究团队在三个具有挑战性的基准测试上评估了Orchestrator的性能,并与多个大型通用模型进行了对比。

关键测试结果:

  • 在针对博士级问题的 “HLE”基准测试 中,Orchestrator表现出显著优势。
  • 计算成本大幅降低:其计算成本远低于其他方法。
  • 工具调用高效:在调用工具时,能有效安排不同工具的使用,在保持效率的同时减少对高成本模型的使用。

四、应用前景与价值

1. 技术能力

通过强化学习训练的Orchestrator展现出强大的通用推理能力,并能灵活适应新的挑战。

2. 企业应用价值

对于企业应用而言,Orchestrator能够很好地适应未曾见过的模型和定价结构,为依赖多个AI模型的企业提供了更经济、更灵活的解决方案

五、项目关键要点总结

  1. 模型特性:Orchestrator是一个8亿参数的模型,能智能协调多个工具,增强AI的推理能力。
  2. 训练框架:ToolOrchestra框架使用强化学习训练小型模型,以更高效的方式管理复杂任务。
  3. 性能表现:在多项基准测试中表现优异,显著降低计算成本,并能适应各种企业需求。

附:相关新闻摘要(同一来源)

  1. NVIDIA发布Orchestrator-8B(2025年12月1日):介绍ToolOrchestra框架,训练小型语言模型Orchestrator-8B作为“大脑”,以提升AI系统选择合适模型和工具的能力,减少对单一大型模型的依赖,并通过减轻决策偏差来提高任务效率。
  2. NVIDIA与德国电信投资10亿欧元建设数据中心(2025年11月5日):投资建设德国最大的AI数据中心,预计2026年第一季度投入运营,旨在提升欧洲AI基础设施和全球竞争力。
  3. 黄仁勋揭示NVIDIA与OpenAI的战略伙伴关系(2025年9月28日):NVIDIA CEO对AI未来表示强烈信心,并为其对OpenAI的投资进行辩护,称其为具有长期利益的技术驱动型投资。
  4. NVIDIA发布全球最小AI超级计算机Project Digits(2025年1月7日):在CES 2025上发布专为AI开发设计的台式计算机,搭载最新的GB10 Grace Blackwell超级芯片。
  5. AWS发布多智能体协调器(2024年12月24日):旨在简化复杂AI系统的管理。
  6. 微软发布开源通用AI智能体Magentic-One(2024年11月9日):用于自动化任务处理。

火龙果频道