首页 - 港股 - 公司报道 - 正文

阿里云发布Wan2.7-Video视频生成模型

(原标题:阿里云发布Wan2.7-Video视频生成模型)

智通财经APP获悉,4月3日,阿里云通义实验室宣布视频生成模型 Wan2.7-Video 正式上线。该模型支持文本、图像、视频、音频全模态输入,聚焦“创作”全链路,覆盖生成、编辑、复刻、重塑、驱动、续写、参考等流程,号称更可控、更全能、“能导擅演”。

据悉,Wan2.7 支持文本、图像、视频、音频全模态输入,在画面结构、剧情走向、局部细节、时序变化等方面均可随心控制,让视频像文档一样可编辑。

用户可以通过指令对视频画面进行局部调整,编辑后的区域在光影与材质上能与原视频自然融合。同时,其支持指令增删元素(如“删掉视频中的火车”)、替换物体(如“把胶片替换成盘子”),也可修改物体属性(如建筑颜色)。支持参考图像内容进行精准添加。

该模型还支持变换环境与风格,人物动作不变,背景季节可从夏日变深秋,或一键转换为羊毛毡风格,瞬间穿越平行宇宙。

此外,其还支持视频质量提升(如给黑白画面上色)、视觉理解任务(如主体分割)及拍摄方式调整(如修改对焦)等,满足多样编辑需求。

对已经拍摄或生成的视频内容,支持通过指令描述实现剧情内容和拍摄方法的修改。Wan2.7 允许你在不改变原有身份和场景的前提下,对角色的行为、台词甚至拍摄视角进行颠覆性修改,实现灵活的二次创作。同时,其支持修改角色所讲的台词内容,保持其情绪、口型与新台词匹配,并保持音色统一。也可以修改行为,如“其他保持不变,坐沙发上的女生变为站着打游戏”,仅动作逻辑改变。

该模型还支持同场景角色的颠覆演绎,如将玩家替换为中世纪骑士,手中控制器替换为冷兵器,但保持原有握持姿势不变。也可修改拍摄相机设定(机位、视角、景别、镜头类型、焦距等)。例如“将镜头修改为从地面逐渐向上升起”,同一素材呈现截然不同的观影体验。

该模型能够通过首尾帧、视频续写、续写 + 尾帧等方式,实现对剧情走向和画面构图、光影的精准控制,兼顾动态延续性与结构可控性。

其还支持图像、视频、音频等多模态参考,实现外观和音色的锁定。支持多达 5 个视频主体参考,让每个角色都有专属音色,多镜头间特征保持更一致。

APP下载
广告
下载证券之星
郑重声明:以上内容与证券之星立场无关。证券之星发布此内容的目的在于传播更多信息,证券之星对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至jubao@stockstar.com,我们将安排核实处理。如该文标记为算法生成,算法公示请见 网信算备310104345710301240019号。
网站导航 | 公司简介 | 法律声明 | 诚聘英才 | 征稿启事 | 联系我们 | 广告服务 | 举报专区
欢迎访问证券之星!请点此与我们联系 版权所有: Copyright © 1996-