AI-NEWS · 2024年 8月 10日

Is ChatGPT’s Mysterious Power Holding Back LLMs? Karpathy and LeCun Jointly Critique RLHF Technology

归纳总结

主要观点

  1. 争议性声明

    • Andrej Karpathy认为基于人类反馈的强化学习(RLHF)可能不是实现真正具有人类级别问题解决能力的必然路径,称其为“瓶颈”和“权宜之计”。
  2. RLHF的局限性

    • RLHF被认为是ChatGPT等大型语言模型成功的关键,但Karpathy认为它更像是模仿人类偏好,而非真正解决问题。
    • 比较AlphaGo使用的“真正强化学习”技术,RLHF需要大量的人类比较来训练奖励模型,这在复杂任务中可能会产生误导结果。
  3. 开放任务的挑战

    • 强化学习在闭合环境(如围棋)中表现良好,但在开放性语言任务中定义明确的目标和奖励机制仍具挑战。
  4. 未来展望

    • 如果能克服这些挑战,语言模型有望达到或超越人类的问题解决能力。谷歌DeepMind的一篇论文也指出,开放性是人工通用智能(AGI)的基础。
  5. 行业反响

    • Karpathy的观点引发了广泛讨论。一些支持者认为他揭示了当前AI研究中的关键问题:如何让AI真正解决复杂问题,而不仅仅是模仿人类行为。反对者则担心过早放弃RLHF可能导致AI发展方向的偏差。

数据和事实支持

  • Karpathy的比较表明,如果AlphaGo使用RLHF,人类评估者需要进行多达100,000次比较来训练一个“奖励模型”,这在严谨的游戏中可能会导致误导性结果。

深度分析

  • RLHF虽然目前在提升AI自然交互和理解能力方面取得了一定成功,但其核心方法依赖于模仿人类偏好,这与通过优化神经网络直接从任务结果中学习的“真正强化学习”有本质区别。随着AI任务的复杂性增加,RLHF可能变得不再适用,需要新的创新思维来解决这些问题。

建议

  • 在继续探索RLHF潜力的同时,应该加大对其他强化学习方法的研究,尤其是在开放性任务中的应用,以找到更有效的AI进化路径。

Source:https://www.aibase.com/news/10962