爱世科技发布全球首个通用实时世界模型 PixVerse R1,支持1080P视频生成
发布日期:2026年1月14日
来源:AIbase Daily
概述
爱世科技(Aishikeji)近日发布了全球首个通用实时世界模型 PixVerse R1。该模型通过三项核心技术的无缝整合,实现了“活虚拟世界”的实时交互体验,并支持高达1080P分辨率的视频生成。其技术细节与应用场景已正式公开。
核心技术:三大创新构建“实时世界”基础
PixVerse R1 的核心能力源于以下三项底层技术的协同突破:
-
Omni(原生多模态模型)
- 作为现实世界的“计算底座”,将文本、图像、音频、视频统一为连续的 token 流。
- 支持端到端的数字世界生成,具备一致的物理逻辑,最高支持1080P分辨率,为多模态交互提供统一技术基础。
-
自回归流式生成机制
- 赋予模型“持久记忆”,解决长序列内容的一致性问题。
- 支持无限长度生成,消除图像突变、逻辑断裂等问题,实现叙事中的“流式交互”。
-
即时响应引擎(IRE)
- 通过时间轨迹折叠、引导校正、自适应稀疏注意力三项创新,为模型注入“神经反射”。
- 将采样步骤压缩至 1-4步,计算效率提升数百倍,直接支撑“即时响应”的核心体验。
应用场景:开启“实时共创”新体验
基于其技术能力,PixVerse R1 旨在实现“人人成为实时世界的创作者”,为以下三个领域带来新范式:
- 游戏:使游戏世界“活起来”,创造动态、交互的虚拟环境。
- 影视:使电影“可玩”,打破单向观看模式,实现交互式内容体验。
- 直播:使直播“万物可交互”,提升实时参与感与互动深度。
该模型围绕“所思即所见,所言即所现”的理念,推动虚拟世界从“预录重播”模式转向基于用户输入实时演进的“共创”模式。
官方体验地址:realtime.pixverse.ai
其他AI领域动态摘要(2026年1月12日-14日)
| 日期 | 标题 | 关键信息 |
|---|---|---|
| 2026-01-14 | 韩国主权AI面临信任危机 | 韩国政府资助的“本土AI模型竞赛”中,至少三个决赛作品被指使用中美开源代码,引发对技术自主性的质疑。 |
| 2026-01-14 | Vidu推出AI一键MV生成功能 | 详情未提供。 |
| 2026-01-14 | 快手AI年度经常性收入(ARR)达24亿元 | 详情未提供。 |
| 2026-01-14 | 郭明錤:苹果AI芯片量产在即 | 苹果计划2026年底量产自研服务器AI芯片,2027年推出搭载该芯片的新数据中心。 |
| 2026-01-14 | 清华大学研发智能眼镜 | 可实时监测面部肌肉活动,并通过一键刺激治疗面肌痉挛,成果发表于《自然·通讯》。 |
| 2026-01-14 | 1X发布世界模型赋予机器人进化能力 | 使Neo人形机器人能通过视频自主学习新技能,超越预设程序。 |
| 2026-01-13 | 光云科技澄清AI业务 | 无自研大模型,相关收入规模小且未盈利,未来贡献不确定。 |
| 2026-01-13 | Google Nano Banana Pro两月生成10亿张图像 | 支持局部编辑、镜头调整、光线控制,可输出2K/4K多语言文本图像。 |
| 2026-01-13 | 扎克伯格宣布Meta Compute计划 | 将大规模自建计算与能源设施,目标到2030年达到数十吉瓦规模。 |
| 2026-01-12 | OpenAI与软银投资10亿美元共建数据中心 | 为“Stargate”项目提升AI处理能力与效率。 |
| 2026-01-12 | OpenAI要求合同工上传真实工作成果 | 引发对知识产权归属的担忧。 |
注:本文内容整理自AIbase Daily,聚焦于PixVerse R1的发布,并摘要同期其他AI新闻要点。广告、推广链接及无关导航信息已移除。
