AI-NEWS · 2026年 1月 24日

北大芯片破AI功耗瓶颈

北京大学团队研发新型模拟计算芯片,能效提升228倍,突破AI算力功耗瓶颈

核心摘要

随着AI大模型与复杂算法的爆发,硬件层面的能效挑战日益突出。北京大学人工智能学院孙仲研究员带领的团队,在高性能计算芯片领域取得重大突破。团队成功研发出一种专为“非负矩阵分解”设计的模拟计算芯片,为处理海量数据提供了更高效、更低功耗的解决方案。该成果已于2026年1月19日正式发表于国际顶级期刊《自然·通讯》。

技术细节与突破

1. 技术背景:非负矩阵分解

  • 应用领域:图像分析、推荐系统、生物信息学等领域的核心技术。
  • 传统挑战:传统数字芯片在处理大规模数据的实时计算时,常面临计算复杂度高、内存访问受限等难题。

2. 创新路径:模拟计算

  • 技术路线:团队选择模拟计算技术路线,利用物理定律直接进行并行计算,从基础逻辑层面降低延迟与功耗。
  • 核心优势:从根本上规避了数字计算中频繁的数据搬运和转换过程,实现能效的飞跃。

3. 性能数据

实验测试数据显示,该芯片在典型应用场景中表现卓越:

  • 计算速度:相比当前主流先进数字芯片,提升约12倍
  • 能源效率:相比当前主流先进数字芯片,提升超过228倍
    这意味着该芯片能以极低的能耗完成远超传统硬件的工作量。

实际应用测试表现

  1. 图像压缩任务
    • 在保持高精度的同时,节省了约一半的存储空间
  2. 推荐系统商业数据集训练
    • 性能显著优于传统硬件。

未来展望

孙仲研究员表示,这项工作展示了模拟计算在处理现实世界复杂数据方面的巨大潜力,未来有望在实时推荐、高清图像处理等领域得到广泛应用。

发布日期:2026年1月23日 | 信息来源:AIbase

火龙果频道