AI-NEWS · 2026年 3月 24日

豆包即梦视频模型 Seedance 2.0 全球发布

字节跳动把 Seedance 2.0 放到了全球

这消息来得挺突然的。字节跳动旗下的 Seedance 2.0(也就是豆包和即梦视频里用的那个模型)正式面向全球发布了。说实话,看到它的评测数据时,我有点没想到。

数据有点“吓人”

独立机构 Artificial Analysis 搞了个盲测,结果 Seedance 2.0 把几家巨头甩在了身后:

  • 文生视频: Elo 评分 1269,排全球第一。
  • 图生视频: 综合评分上,它甚至超过了 Google 的 Veo3、OpenAI 的 Sora,还有快手可灵。

这些分不是瞎凑的,是真人盲测投出来的。简单来说,就是用户觉得这玩意儿生成出来的视频更好看、更顺眼。

这玩意儿到底强在哪?

它的核心是搞了个“多模态统一架构”,文本、图片、声音、视频都能喂进去,然后能搞定下面几件事:

  1. 画质够清: 能直接出 1080p 的视频,不用后期再去糊弄画质。
  2. 音画不“打架”: 以前 AI 视频老毛病,嘴动声音对不上。这个好像解决了。
  3. 动作看着像真的: 物理逻辑更合理了,不会那种手穿墙或者走路飘忽不定的怪现象。
  4. 导演级控制: 你能精细调镜头怎么动,不像以前那样只能干瞪眼等它瞎生成。
  5. 人不变形: 人物一致性保持得不错,哪怕在复杂互动场景里,人物脸也不会突然变样。

拿来就能用

字节这次没打算只在国内卷,他们搭了个“即梦 + CapCut(剪映)”的生态:

  • 国际版网页: 去 dreamina.capcut.com 就能用,网页端点一下就能生成。
  • 剪映自带: 桌面版和手机版剪映里已经内置了这个模型。想试用的话,目前好像还能免费用用,或者花钱买订阅。

对行业是个信号

Seedance 2.0 这么一出来,至少说明两件事:

  • 中国公司在这一行混不下去了? 不,是更卷了。它在多模态 AI 领域的全球竞争力确实强了点,生成式内容往影视和商业里进的速度也快了。
  • 效率确实提上去了: 以前做个视频得搞半天,现在从想法到成片快多了。

不过,后面还有个事儿得盯着:合规和版权

虽然技术强了,但内容合规、版权保护、怎么防止别人乱用,这些活儿还得接着干。另外,据说以后会开放 API,到时候开发者和企业能接进去,让 AI 帮他们干活,这应该是个大趋势。

注: 现在大家就能直接去 Dreamina 或 CapCut 试试了。

火龙果频道