Xmax AI发布实时交互视频模型 虚实融合人人可玩。Xmax AI近日正式发布了全球首个虚实融合的实时交互视频生成模型——X1。该模型实现了毫秒级实时视频生成和低门槛的手势交互,能够将虚拟内容实时、无缝地融入现实物理空间,打破了AI视频生成“预制内容”的传统范式。目前,用户可通过TestFlight下载技术演示应用X-cam beta来体验X1模型的能力。
当前,全球AI视频生成领域发展迅速,行业企业纷纷在画质、时长和分辨率上展开技术竞争,主要服务于影视、广告等专业领域的生产力需求。但现有技术路线多聚焦于“文生视频”的单向输出,操作复杂、等待时间长且缺乏互动性,难以真正融入日常生活。
为解决这一问题,Xmax AI选择了“虚实融合+实时交互”的技术路线。X1模型无需复杂的提示词或漫长的云端渲染等待,仅凭手机摄像头和直觉化手势即可实现虚拟与现实的无缝融合,推动AI视频从“被动的消费内容”向“共创体验”转变,让AI视频变得人人可玩。
基于X1模型的实时生成能力,Xmax AI推出了四大核心玩法,覆盖多元交互场景。次元互动功能允许用户上传任意角色图并通过手机摄像头将其置入现实场景,虚拟角色能对触摸、捏握等手势做出动态反馈;世界滤镜功能则可以将摄像头捕捉到的现实画面实时转化为指定风格,保持动作的一致性和连贯性;触控动图功能使用户可以通过拖拽照片中的元素唤醒并操控角色;表情捕手功能则能在镜头对准人物后实时生成神态精准的动态表情包。
X1模型的技术实现源于团队在算法与工程层面的核心突破。为了实现极速响应与精准意图理解,Xmax AI团队创新了端到端流式重渲染架构,大幅提升了扩散采样速度,并构建了统一交互模型架构,融合空间三维关系与屏幕二维操作,精准解析复杂用户意图。针对虚实融合数据稀缺的问题,团队还搭建了半自动化合成管线,为AI视频生成领域储备了数字资产。
Xmax AI团队汇集了来自华为“天才少年”计划、清华大学KEG与HCI实验室、香港科技大学(广州)以及字节跳动、快手等高校和头部企业的顶尖人才,兼具算法研发与工程落地能力。X1模型和X-cam应用是企业布局的开端,团队正致力于定义全新的内容交互范式,搭建下一代内容交互引擎。X1模型的推出,为行业发展提供了全新的技术方向。
(网站咨询与信息版权问题处理:wfxxw@foxmail.com)