OpenAI视频生成模型Sora,一句文本描述即可生成视频,内容太魔幻

发布时间:2024-03-28 12:56:15 浏览量:174次

OpenAI视频生成模型Sora,一句文本描述即可生成视频,内容太魔幻

春节还未开工的2月15日,OpenAI 正式发布了文本到视频生成模型 Sora,继 Runway、Pika、谷歌和 Meta 之后,OpenAI 终于加入视频生成领域的战争。现在各大厂都在自己造!

OpenAI这次推出创新性文生视频模型Sora,可根据文本生成60秒视频。

以下是官方介绍:

Sora 能够生成具有多个角色、特定类型的运动以及主体和背景的准确细节的复杂场景。该模型不仅了解用户在提示中提出的要求,还了解这些东西在物理世界中的存在方式。

该模型对语言有深入的理解,使其能够准确地解释提示并生成引人注目的字符来表达充满活力的情感。Sora 还可以在单个生成的视频中创建多个镜头,准确地保留角色和视觉风格。

但是官方也讲了:

当前的模型存在弱点。它可能难以准确模拟复杂场景的物理原理,并且可能无法理解因果关系的具体实例。例如,吹蜡烛前后的烛火毫无变化。

该模型还可能会混淆提示的空间细节,例如混淆左右,并且可能难以精确描述随着时间推移发生的事件,例如遵循特定的相机轨迹。

Sora 建立在过去 DALL・E 和 GPT 模型的研究基础之上。它采用了 DALL・E 3 中的重述技术,即为视觉训练数据生成高度描述性的字幕。因此,该模型能够在生成的视频中更忠实地遵循用户的文字提示。


除了能够仅根据文字说明生成视频外,该模型还能根据现有的静态图像生成视频,并准确、细致地对图像内容进行动画处理。该模型还能提取现有视频,并对其进行扩展或填充缺失的帧。

虽然看起来不错但是文本转视频技术要真正威胁到传统电影制作,可能还需要很长时间夫。

附几张sora生成视频的动图

热门课程推荐

热门资讯

请绑定手机号

x

同学您好!

您已成功报名0元试学活动,老师会在第一时间与您取得联系,请保持电话畅通!
确定