Wan2.7-Video:阿里通义全模态视频创作模型,支持剧情可控与原子级精准编辑

原创 发布日期:
142

一、Wan2.7-Video是什么

Wan2.7-Video是阿里巴巴通义实验室发布的全模态AI视频创作大模型,属于通义万相系列核心产品,以“像编辑Word一样编辑视频”为核心理念,覆盖从素材生成到精细修改的全创作链路。

该模型由四大子模型构成完整工作流,支持文本、图像、视频、音频多模态输入,输出分辨率720P/1080P,时长2–15秒可调,主打局部编辑不重抽、角色跨帧一致、剧情精准可控、风格高度自定义,彻底改变传统视频“生成靠运气、修改靠重拍”的痛点,让普通用户与专业创作者均可快速产出电影级视频内容。

核心架构与四大子模型

子模型名称 核心能力 适用场景
Wan2.7-t2v 文生视频 文本直生成视频,支持运镜、剧情、风格设定 从零创作短视频、广告片、创意短片
Wan2.7-i2v 图生视频 静态图转为动态视频,保留构图与细节 海报动效、产品展示、插画动画化
Wan2.7-r2v 参考生视频 复刻参考视频动作/运镜/特效,多主体一致 角色复刻、镜头复用、动作迁移
Wan2.7-videoedit 视频编辑 自然语言指令局部增删改,光影自动融合 废片修复、元素替换、场景变换、剧情调整

二、功能特色

1. 原子级局部编辑,无需重抽全片

  • 支持框选区域+文本指令,精准增删物体、替换角色、修改表情

  • 局部修改自动匹配光影、材质、透视,无违和拼接感

  • 典型指令:删除路人、替换背景、晴天变雨天、人物表情调整

2. 全模态统一输入,创作自由度拉满

  • 输入:文本描述、单张/多张参考图、视频片段、音频驱动

  • 输出:流畅动态视频,支持镜头推拉摇移、转场自然衔接

  • 支持最长3K token文本输入,可承载复杂剧情与分镜描述

3. 角色一致性与多主体管控

  • 支持最多5个主体参考图,跨镜头保持面部、服饰、身形一致

  • 千人千面捏脸,避免AI同质化面孔

  • 角色动作自然连贯,无扭曲、穿模、瞬移问题

4. 千级视觉风格,精准色彩控制

  • 覆盖2D卡通、3D动画、水墨、黏土、赛璐璐、写实、赛博朋克等

  • 调色盘功能精准控制色相/饱和度/明度,统一画面调性

  • 支持印刷级文字渲染,适合片头字幕、产品说明

5. 剧情与运镜可控,从“演员”变“导演”

  • 支持剧情续写、尾帧锁定,保证叙事连贯

  • 自定义运镜:推拉、俯仰、环绕、慢放、快进

  • 分镜调度与节奏控制,适配影视级创作逻辑

6. 高效易用,降低专业门槛

  • 网页端可视化操作,无需剪辑软件基础

  • API接入支持企业级批量生产

  • 生成速度快,普通配置即可快速出片

三、应用场景

1. 短视频与内容创作

  • 抖音/快手/视频号爆款短片快速生成

  • 剧情短剧、搞笑段子、生活vlog高效制作

  • 网红IP形象动态化,批量产出同质化内容

2. 电商与广告营销

  • 产品展示视频、卖点动画、开箱视频

  • 品牌广告片、节日营销短片、信息流广告

  • 商品背景替换、模特换装、场景快速迭代

3. 教育培训与知识科普

  • 课件动画、实验演示、步骤拆解视频

  • 语言教学口型同步、虚拟讲师讲解

  • 少儿启蒙动画、安全教育短片

4. 影视与传媒行业

  • 分镜预览、样片快速生成

  • 废片修复、穿帮镜头消除、角色替换

  • 预告片、花絮、特效短片低成本制作

5. 企业与政务宣传

  • 企业宣传片、产品介绍视频

  • 政务科普、政策解读、公益短片

  • 年会视频、活动回顾、员工风采展示

6. 个人创意与二次元创作

  • 插画动效、OC角色动画、漫剪视频

  • 虚拟偶像动作生成、同人短片

  • 个人写真动态化、旅行短片一键生成

Wan2.7-Video:阿里通义全模态视频创作模型,支持剧情可控与原子级精准编辑

四、使用方法

(一)网页端使用流程

  1. 进入平台
    打开通义万相官网 https://tongyi.aliyun.com/wan 或 wan.video,登录阿里云账号。

  2. 选择创作模式

    • 文生视频:输入文本提示词,设置分辨率、时长、风格

    • 图生视频:上传图片,设定动态方向与运镜

    • 参考生视频:上传参考视频+主体图,复刻动作与镜头

    • 视频编辑:上传待修改视频,框选区域+输入编辑指令

  3. 参数配置

分辨率:720P / 1080P
时长:2–15秒
风格:写实/卡通/水墨等
帧数:流畅模式 / 高清模式
主体锁定:开启/关闭,上传参考图
  1. 生成与导出
    点击生成,等待渲染完成;预览无误后下载MP4格式视频。

(二)API调用方式(开发者)

  1. 进入阿里云百炼 https://bailian.console.aliyun.com,开通Wan2.7-Video服务

  2. 获取AccessKey,构造请求参数

# 简化调用示例
import requests
url = "https://api.aliyun.com/wan2.7/video/generate"
headers = {"Authorization": "Bearer YOUR_TOKEN"}
data = {
  "prompt": "一只橘猫在窗边看雨,慢镜头,写实风格",
  "resolution": "1080p",
  "duration": 5
}
response = requests.post(url, json=data)
  1. 异步获取结果,下载视频文件

(三)提示词编写技巧

  • 结构:主体+动作+场景+光线+风格+运镜

  • 示例:一只金毛犬在秋日公园奔跑,逆光,暖色调,写实,横向运镜

  • 多主体:分别描述角色特征与互动关系

  • 编辑指令:精准指定区域+操作,如“框选左侧垃圾桶,删除并填充草地”

五、常见问题解答

Wan2.7-Video支持最长生成多长的视频?

当前单次生成支持2–15秒,可通过多段拼接实现更长视频。

生成的视频分辨率有哪些选择?

提供720P与1080P两种分辨率,满足社交平台与高清展示需求。

视频编辑时局部修改会影响其他画面吗?

不会,模型采用区域精准编辑技术,仅修改指定部分,自动融合光影。

是否支持多人/多角色同时保持一致?

支持最多5个主体参考,跨镜头保持角色外观、动作连贯统一。

可以自定义视觉风格吗?

支持上千种预设风格,也可通过参考图自定义风格,色彩可精细调节。

生成的视频有水印吗?

网页端体验版可能带有轻微标识,企业API与正式版可无水印输出。

个人用户可以免费使用吗?

提供免费体验额度,超出后按调用次数或时长计费,具体以官网为准。

支持上传自己的音频进行驱动吗?

支持音频输入,可实现口型同步、动作与音乐节奏匹配。

修改后的视频画面会不会出现穿模或扭曲?

模型优化了物理逻辑与空间透视,正常指令下极少出现穿模,画面自然。

API调用支持批量处理吗?

支持企业级批量调度,可对接CMS、设计平台实现自动化生产。

移动端可以使用吗?

通义千问App即将接入,届时支持手机端一键生成与编辑。

六、相关链接

七、总结

Wan2.7-Video作为阿里通义实验室推出的全模态AI视频创作模型,以四大子模型构建从生成到编辑的完整工作流,凭借原子级局部修改、角色跨帧一致、剧情运镜可控、千级风格自定义等核心能力,大幅降低视频创作的技术门槛与时间成本,既适合普通用户快速产出短视频、创意短片,也能满足企业营销、教育培训、影视制作等专业场景的批量生产需求,通过网页端与API双入口提供灵活使用方式,真正实现视频内容的高效、自由、精准创作。

打赏
THE END
作者头像
人工智能研究所
发现AI神器,探索AI技术!