9 月 19 日消息,阿里巴巴正式开源全新动作生成模型——通义万相 wan2.2-animate。该模型创新性地支持动画驱动与角色替换双重模式:只需输入一张角色图像和一段参考视频,即可将视频中人物的动作、表情精准迁移到静态图片角色上,赋予其生动自然的动态表现;同时,还能在保留原视频动作、表情及场景环境的前提下,将其中的角色无缝替换为指定图片中的形象。

该模型可广泛应用于人物、动漫角色及动物图像的动作驱动,适用于短视频内容创作、舞蹈模板生成、动画制作等多个领域。
回顾去年年初,阿里推出的 Animate Anyone 模型曾引发广泛关注,其衍生的「全民舞王」功能风靡全网,兵马俑跳科目三、宠物跳舞等创意视频在社交平台频繁刷屏。然而,早期技术难以同步精准控制动作、面部表情与环境交互,导致生成结果常出现不连贯或失真现象。
此次发布的 Wan2.2-Animate 实现了关键技术突破。通义万相团队构建了一个大规模的人物视频数据集,涵盖丰富的说话场景、面部微表情和全身动作,并基于通义万相图生视频基础模型进行后训练优化。通过将角色特征、环境信息与动作信号统一编码为标准化表示,该模型实现了单模型双模式推理的兼容。
针对动作与表情的精细还原,模型分别采用骨骼关键点信号驱动身体运动,使用隐式特征表达捕捉面部变化,并引入动作重定向模块,提升跨角色动作迁移的准确性与自然度。在角色替换模式下,研发团队特别设计了独立的光照融合 LoRA 模块,有效保障替换后角色与原始视频光照条件的高度一致,实现更真实的视觉融合效果。
实测表明,Wan2.2-Animate 在视频质量、主体一致性、感知损失等多项核心指标上均优于 StableAnimator、LivePortrait 等主流开源模型,成为当前性能最强的开源动作生成模型。更值得一提的是,在人类主观评价测试中,其表现甚至超越 Runway 推出的闭源模型 Act-one,展现出卓越的生成真实感与艺术表现力。
自今年 2 月起,通义万相已累计开源超过 20 款模型,总下载量突破 3000 万次,覆盖 Hugging Face 等主流三方平台,稳居开源社区最受欢迎的视频生成模型行列。目前,通义万相系列已全面支持文生图、文生视频、图生视频、人声驱动视频、动作生成等十余种视觉创作能力,持续推动 AIGC 内容生态的发展。
以上就是阿里开源动作生成模型 Wan2.2-Animate,可一键让照片动起来的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号