北京大学团队研发新型模拟计算芯片,能效提升228倍,突破AI算力功耗瓶颈
核心摘要
随着AI大模型与复杂算法的爆发,硬件层面的能效挑战日益突出。北京大学人工智能学院孙仲研究员带领的团队,在高性能计算芯片领域取得重大突破。团队成功研发出一种专为“非负矩阵分解”设计的模拟计算芯片,为处理海量数据提供了更高效、更低功耗的解决方案。该成果已于2026年1月19日正式发表于国际顶级期刊《自然·通讯》。
技术细节与突破
1. 技术背景:非负矩阵分解
- 应用领域:图像分析、推荐系统、生物信息学等领域的核心技术。
- 传统挑战:传统数字芯片在处理大规模数据的实时计算时,常面临计算复杂度高、内存访问受限等难题。
2. 创新路径:模拟计算
- 技术路线:团队选择模拟计算技术路线,利用物理定律直接进行并行计算,从基础逻辑层面降低延迟与功耗。
- 核心优势:从根本上规避了数字计算中频繁的数据搬运和转换过程,实现能效的飞跃。
3. 性能数据
实验测试数据显示,该芯片在典型应用场景中表现卓越:
- 计算速度:相比当前主流先进数字芯片,提升约12倍。
- 能源效率:相比当前主流先进数字芯片,提升超过228倍。
这意味着该芯片能以极低的能耗完成远超传统硬件的工作量。
实际应用测试表现
- 图像压缩任务:
- 在保持高精度的同时,节省了约一半的存储空间。
- 推荐系统商业数据集训练:
- 性能显著优于传统硬件。
未来展望
孙仲研究员表示,这项工作展示了模拟计算在处理现实世界复杂数据方面的巨大潜力,未来有望在实时推荐、高清图像处理等领域得到广泛应用。
发布日期:2026年1月23日 | 信息来源:AIbase
