Runway Research 刚刚宣布其即将推出的生成式 AI 模型 Gen-2,该模型使创意人员能够将文字转换为视频。
Runaway 的 Gen-2 视频生成模型是在“240M 图像的内部数据集和 640 万视频剪辑的自定义数据集”上训练的。换句话说,数据集很大,尽管没有迹象表明这个自定义数据集是否是通过抓取网络制作的(在新标签页中打开)用于摄像师的工作。如果您打算将生成的内容货币化,这可能不是最好的选择。
尽管如此,Runway 看起来还是 Gen-1 工具的一个非常强大的演变,许多人已经在使用它来制作故事板和预制作视觉效果。类似于Meta的AI视频生成器(在新标签页中打开)尽管 Gen-2 模型看起来添加了一些非常有趣的模式。
很快,该工具将允许您仅通过文本生成视频。不仅如此,该公司还在其众多的视频编辑工具中添加了一些其他模式,包括一种通过向算法提供视频剪辑来工作的模式,以及它可以以其他风格进行修改的模式等。
预告视频中的一个令人兴奋的例子(在新标签页中打开)显示了对一些站在桌子上的书的平移镜头。Gen-2 模型将它变成了夜晚的城市场景,书籍变成了摩天大楼,虽然它不是最逼真的镜头,但它看起来是一个将想法可视化的强大工具。