网友:我都不敢想象一年后的视频技术会有多先进。
五十秒的预告视频再次引发了ai圈的热议
昨天,Runway宣布即将在视频生成工具Gen-2中推出"Motion Brush"(运动笔刷)功能,这是一种全新的方法,可以控制生成内容的移动
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

这次的玩法,甚至不需要输入文字,只要有手就够了。
从给定的图片中任选一张,只要用画笔涂抹到某个地方,那个地方就会立刻动起来



无论是水流、云彩、火焰、烟雾还是人物,都能高度还原其动态。这难道就是传说中的「点石成金」吗?

网友看完表示:我都不敢想象一年后的视频技术会有多先进……

在2023年初,从文本生成视频依然是一项相当困难的任务
Runway 曾在今年 2 月推出了 Gen-1,功能非常丰富,包括风格化、故事版、蒙版、渲染、自定义等等。看起来,这是一个专注于「编辑」视频的工具。
但今年 3 月,Gen-2 的面世改变了一切,它新增了文字、图片生成视频功能。用户仅需输入文字、图像或文字加图像的描述,Gen-2 即可在很短的时间内生成相关视频。
这是市场上首款可供公众使用的文本转视频模型。例如,当输入一段纯文字「午后的阳光透过纽约阁楼的窗户照进来」时,Gen-2会直接生成相应的视频

通过使用几个提示和手势,我们现在能够生成高质量的视频并进行进一步编辑,不再需要复杂的视频编辑软件和冗长的制作流程
如果将Midjourney和Gen-2这两款文生图神器和文生视频神器结合起来使用,用户完全可以不用动笔,就能够直接创作出大片作品
当然,Gen-2 也有竞争对手,其中之一是 Pika Labs,而且后者还是免费的

由 Pika Labs 生成的是上述画面
对于这种疯狂卷的态势,一部分用户是非常期待的:「2024 年,Pika Labs 和 Runway 之间的拉扯一定很有意思。」

传闻中,OpenAI 也有视频生成相关的技术。有网友表示:「这让我不禁好奇,OpenAI 的 any-to-any 模型在生成视频方面究竟有多出色,因为这家公司通常都走在别人前面。」

未来的视频和电影制作行业,会因此而颠覆吗?
以上就是Runway的新特性「动态笔刷」再次震撼AI界:轻轻一画,图片即刻活动起来的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号