AI-NEWS · 2026年 4月 8日

大鼠神经元实现 AI 计算

大鼠神经元能算 AI 了?日本研究者的突破与坑

日本东北大学有个团队做了个挺炸裂的实验——用活体大鼠神经元跑 AI 计算。

说实话,刚开始看到报道我也怀疑是真的。毕竟现在说"活体大脑能训练"的,我大概记得有 200 多个研究都翻车了。

他们到底干了什么

核心思路其实不算新奇:把大鼠神经元切片放进定制的微流控设备里,用微电极阵列实时记录神经信号,再反过来刺激特定神经元。

但真正有意思的地方在于:

他们搭建的系统能自己生成周期性波形,而不需要外部输入指令。

这有点反直觉——通常我们理解的学习都是"给定输入,找出规律"。而这套系统更像是:

"给我一个目标信号模板,你自己去凑"

技术实现细节(说人话版)

他们用 PDMS 材料做了个薄膜装置,上面开了 128 个小孔。这些小孔通过微通道互相连接,分成两种布局:

  • 网格型:所有神经元平均连接
  • 分层型:神经元分成几层,层层传递

为什么设计这个?因为如果不加约束,神经元自己随便连,容易形成高度同步状态——这就没法学习到具体的目标信号了。

性能到底怎么样

我比较好奇的是实际能做成什么,看了几个测试数据:

任务 表现
波形生成 4 秒、10 秒、30 秒周期的正弦波、三角波、方波,都跑通了
混沌模拟 能近似洛伦兹吸引子这种三维混沌轨迹
预测准确度 学习阶段的信号相关性超过 0.8

0.8 的相关性在生物信号处理里算挺高的——脑电数据做时间序列分析,通常相关系数都很难稳定超过 0.7。

但问题也不小

这个技术听起来很美好,但实际用起来有几个明显的短板:

问题 具体表现
稳定性 训练结束放那儿自己跑的时候,误差会慢慢累积变大
延迟 系统反馈回路有 330 毫秒延迟,快信号追不上

说实话,330 毫秒延迟对很多 AI 任务来说是致命的。如果你想让它实时控制机器人的运动,这个延迟根本没法用。

他们打算怎么解决

论文里写的是开发专用硬件来降低延迟,目标是:

  • 脑机接口(BCI)
  • 神经假体重建

但我的理解是,真正要落地应用,还需要解决几个更棘手的问题:

  1. 活体神经元会退化。细胞状态会随时间变化,今天训练好的模型,明天可能就跑不动了
  2. 训练成本极高。养大鼠、切神经、维护设备,这些不是实验室里能忽略的开支
  3. 可重复性。生物个体差异很大,不同大鼠的神经反应模式可能完全不同

我的真实感受

这个研究最打动我的,不是它有多完美,而是它证明了什么:

大脑不只是一个"黑盒",里面的神经元确实能执行复杂的计算任务,而且是可训练的。

但同时我也忍不住想:实验室里的理想环境和真实世界差太多了。

那只大鼠的神经元被切下来放在试管里,恒温、恒湿、营养液按时更换。可如果要把这套系统放进人体,神经信号要穿过头骨,要对抗体内的各种干扰,稳定性还能保持多久?

写在最后

这项技术离实用应该还远。但我个人觉得,这是脑科学和 AI 交叉研究的一个里程碑——至少证明了一条路是走得通的。

至于什么时候能真正用得上……老实说,我还抱持怀疑态度。毕竟历史上太多"突破性研究"最终都成了科学史上的注脚。


这篇文章是基于日本东北大学近期发表论文的内容整理。数据准确性以原文为准。

火龙果频道