生成式AI:下一个前沿领域是视频(Gen-2 by Runway)

发布时间:2024-01-17 12:56:02 浏览量:208次

由 Runway 的 Gen-2 模型生成的示例视频。文本输入提示是“A shot following a hiker through jungle brush”

文本到视频是生成式人工智能的下一个前沿领域,尽管目前的输出还很初级。Runway 表示将在“未来几周”向用户提供其新的生成视频模型 Gen-2。这项技术的优势在于,您将能够输入描述并以您喜欢的任何风格生成相应的视频。

Runway 提供了一个基于网络的视频编辑器,专门用于背景移除和姿势检测等 AI 工具。该公司帮助开发了开源文本到图像模型Stable Diffusion ,并于 2 月宣布了其首个 AI 视频编辑模型 Gen-1 。Gen-1 专注于转换现有的视频片段,让用户输入粗略的 3D 动画或摇晃的智能手机剪辑并应用 AI 生成的叠加层。例如,在下面的剪辑中,硬纸板包装的镜头与工业工厂的图像配对,制作出可用于故事板或推介更精美的功能的剪辑。

相比之下,Gen-2 似乎更专注于从头开始生成视频,尽管有很多注意事项。首先,Runway 分享的演示片段短小、不稳定,而且肯定不逼真,其次,访问受限。用户必须通过 Runway 的 Discord 注册才能加入 Gen-2 的候补名单,该公司发言人 Kelsey Rondenet 告诉 The Verge,Runway将“在未来几周内提供广泛的访问权限”。

使用 Gen-2 生成的带有“眼睛特写”提示的 AI 视频。

人工智能生成的视频使用提示“山地景观的航拍”。

文本到视频,将改变整个视频创作流程,将成为下一个创业风口。

热门课程推荐

热门资讯

请绑定手机号

x

同学您好!

您已成功报名0元试学活动,老师会在第一时间与您取得联系,请保持电话畅通!
确定