OpenAI 刚把 Sora 的 API 更新了,用的是 Sora 2 这个模型。这次主要是为了解决做批量视频时最头疼的几个问题:人物长得不一样、视频太短、不同平台还要分别裁剪。
说实话,看到这几个功能点,我有点五味杂陈。
1. 终于不用愁“换脸”了
以前用 AI 做视频,最烦的就是主角。上一秒还是白衬衫,下一秒可能就变黑西装了,或者背景里的路人脸突然扭曲。这种“视觉漂移”让做长视频简直是噩梦。
现在好了,开发者可以先把角色的样子(脸、衣服、配饰)传进去,让模型记住。后面生成的视频,这个主角还是那个主角。
- 实际用处:做广告或者拍短剧的时候,这能省大钱了。以前得靠后期修图修脸,现在不用了。不过说实话,这还没法保证一个月后主角还是那个主角,只能保证这一批视频里主角长得像。
2. 20 秒,够讲个小故事了
以前最长也就 12 秒或 16 秒,根本没法讲故事,只能用来做那种酷炫的特效展示。现在能生成 20 秒了,配合那个“视频延伸”功能,可以接着刚才的画面继续往下推。
- 感觉:这意味着 AI 能独立产出一个有开头、中间、结尾的微型短剧了,不用像以前那样,生完一段赶紧停下来,再重新生成下一段去接上。虽然不用拼素材了,但 20 秒对于一部完整的剧情来说还是有点短,想拍电影还得慢慢熬。
3. 横屏竖屏一次出
这点对我这种做多平台运营的人挺实用的。以前做一个视频,得分别导出一份横屏给 YouTube 和电脑端看,再导一份竖屏给 TikTok 和抖音。
- 现在的操作:发一次指令,直接给你两套素材,一套 16:9,一套 9:16。不用再去裁剪,也不用担心两边比例搞错。省下的时间够你再构思下一个脚本了。
4. 批量跑起来才像样
以前跑个视频得盯着后台等,或者一次只能跑一条。现在这个 API 支持异步批量处理了。
- 简单说:你可以扔进去几百个请求,然后去干别的事,等通知说渲染完了再拿结果。这对那些有工作室、有自动化流程的团队来说,确实是刚需。
一些真实的看法
看完官方发的这些,我觉得 Sora 确实从“实验室玩具”往“真家伙”上靠了一步,但离真正的工业化还有段距离。
- 关于商业落地:角色一致性解决了大麻烦,但离影视级的大制作还有差距。现在的 20 秒虽然能讲故事,但节奏感、镜头运动如果不够细腻,观众看了还是会觉得“假”。
- 关于成本:虽然不用后期修脸了,但生成 20 秒视频算力和时间成本肯定比 12 秒高不少。对于中小创作者来说,是不是能接受这个成本,还得看价格。
- 关于“未来”:官方说得挺美,说这是迈向工业化的关键一步。但我觉得,真正的挑战还在后面。比如,能不能让主角在 20 秒里自然地换衣服?能不能让视频延伸的时候,动作不出现那种诡异的“融化”现象?
数据来源
具体参数还是得看 OpenAI 开发者文档。
注:以上基于公开资料整理,具体 API 细节以官方最新公告为准。
