随着AI视频竞争的持续加剧,几乎每周都有新的逼真视频生成模型问世,早期的领导者Runway并未在能力上让步。
相反,这家总部位于纽约的初创公司,获得了谷歌和英伟达等公司超过1亿美元的资金支持,实际上正在推出一系列新功能,使其与众不同。例如,它推出了一套强大的先进AI摄像头控制系统,用于其第三代Alpha Turbo视频生成模型。
现在,当用户根据文本提示、上传的图像或他们自己的视频生成新视频时,用户还可以控制 AI 生成的效果和场景如何比随机“掷骰子”更加精细地呈现。
正如Runway在其X账号上上传的一系列示例视频所展示的,用户实际上可以在场景和角色之间进行缩放,甚至可以保留AI生成的人物形态及其背后的环境,从而让他们和观众置身于一个完全实现的、看似三维的世界——就像置身于真实的电影拍摄现场或实地拍摄中一样。
这是能力的一大飞跃。尽管其他AI视频生成器和Runway自身之前也提供了摄像头控制,但这些控制相对粗糙,生成新视频的方式往往显得随机且有限——尝试上下或环绕某个主题进行平移时,有时会导致该对象变形,甚至变成二维,或出现奇怪的变形和故障。
Runway 的全新 Gen-3 Alpha Turbo 高级摄像机控制器能做些什么
使用Runway的新一代Alpha Turbo高级摄像头控制,用户可以实现丰富的视觉项目创作。高级摄像头控制提供了设置移动方向和强度的选项,使创作者能够细致地塑造他们的作品。在众多亮点中,用户可以利用水平移动平滑地环绕对象,或从不同的视角探索场景,增强沉浸感和视觉深度。
对于那些希望实验运动动态的用户,该工具集允许将各种摄像机移动与速度变化结合使用。
这一功能特别适合生成视觉引人入胜的循环或过渡效果,提供更大的创作潜力。用户还可以进行戏剧性的特写镜头,带着电影感深入场景,或快速缩小视角,引入新的上下文,转移叙事焦点,为观众提供新的视角。
此次更新还包括缓慢移动摄像机的选项,使其在场景中稳步滑动。这提供了一种可控且有意的观看体验,非常适合强调细节或营造悬念。Runway整合这些多样化选项的目标是改变用户对数字摄像工作的思维方式,允许无缝过渡和增强场景构图。
Runway的Gen-3 Alpha Turbo模型现已为创作者提供高级摄像机控制功能。用户可以访问Runway平台以探索完整的高级摄像机控制特性。
定位 Runway,继续成为各级电影制作人的首选 AI 提供商和工具制造商
虽然我们还没有尝试过新的 Runway Gen-3 Alpha Turbo 模型,但展示其功能的视频表明其控制精度更高,并且应该可以帮助 AI 电影制作人比以往更快、更经济、更无缝地实现主要电影质量场景。
Runway在2023年12月首次提到它正在构建旨在模拟物理世界的AI模型,距今将近一年。当时,联合创始人兼首席技术官(CTO)阿纳斯塔西斯·德国尼斯(Anastasis Germanidis)在Runway网站上发表了一篇关于这一概念的文章,指出:
“世界模型是一个AI系统,它构建了环境的内部表示,并利用该表示来模拟该环境中的未来事件。目前,世界模型的研究主要集中在非常有限和受控的环境中,或者是在玩具模拟世界(例如视频游戏)或狭窄的上下文(例如为驾驶开发世界模型)中。通用世界模型的目标是能够表示和模拟各种情况和交互,类似于现实世界中遇到的情形。”
正如今天揭晓的新摄像头控制所证明的,Runway在构建和向用户部署这些模型的旅程中已经取得了显著进展。