探寻AI魔法:视频内容革新——认识AnimateDiff

发布时间:2024-07-02 13:55:31 浏览量:171次

作为一个热爱AI的粉丝,我近期一直在关注AI生成视频技术的最新动态。这一直是个难题,目前市面上也没有太多解决方案。

直到我发现了最新发布的AnimateDiff,一款全新的文本到视频AI工具,而且还是免费开源的。在此之前,唯一的可选方案是Runway ML,但需要付费订阅。

什么是AnimateDiff?

AnimateDiff是一个框架,旨在将个性化的文本到图像模型扩展为动画生成器,无需进行特定的模型调整。通过学习大型视频数据集中的运动先验,AnimateDiff可以轻松整合到个性化的文本到图像模型中,无论是用户训练的模型还是从其他平台下载的模型。

AnimateDiff

AnimateDiff

工作原理

步骤1:在HuggingFace上打开AnimateDiff

在HuggingFace上注册一个免费账户并打开AnimateDiff空间。

AnimateDiff

AnimateDiff

虽然这一步不是必需的,但最好复制空间以避免排队。

步骤2:选择DreamBooth模型并添加文本提示

DreamBooth模型有多个选项可供选择。查看CivitAI上每个模型的页面,了解如何为它们编写提示。

AnimateDiff

AnimateDiff

对于运动模块,你可以选择mm_sd_v14.ckpt和mm_sd_v15.ckpt中的任一个,但建议尝试两个模型。

以下是一个提示的示例:

"兔子的特写照,森林,薄雾,光晕,绽放,戏剧性的氛围,居中,三分法则,200mm 1.4f 微距拍摄"

步骤3:生成视频

只需点击“生成”按钮,等待至少三分钟,即可完成视频生成工作。

AnimateDiff

AnimateDiff

下面是另一个例子:

"42岁男子,穿着黑衣,光头,脸,半身,身体,高度细致的皮肤,毛孔,海岸线,阴天,风,海浪,8K UHD,单反相机,柔和的照明,高质量,胶片颗粒,富士胶片XT3"

生成视频结果如下:

AnimateDiff

AnimateDiff

这里还有一些来自各种模型的例子:

AnimateDiff

AnimateDiff

AnimateDiff

AnimateDiff

AnimateDiff

AnimateDiff

如果你有兴趣在本地设备上创建AI生成视频,请查看GitHub仓库了解详细说明。

此外,想深入了解AnimaDiff的工作原理,可查看相关白皮书。

总结

通过AnimateDiff进行了两小时的实验后,我对结果印象深刻。与Runway ML生成的视频相比,我觉得AnimateDiff在视频帧插值方面表现更出色。尽管视频长度短得多,但效果更加流畅。

希望未来几个月AI生成视频技术能有大幅改进,期待看到更流畅的视频过渡及更多创新的娱乐形式。可能会应用在教育或营销视频中?

同时也要意识到潜在的风险,随着技术不断发展,Deepfakes和不安全的视频可能会快速传播。在技术成熟之前,必须确立监管措施以应对这些潜在风险。

火星时代教育,专注数字艺术教育,开设游戏设计培训、动画培训、原画培训、AI绘画培训、AI音乐创作培训、影视后期培训、短视频制作、室内设计培训、UI设计培训、插画培训等课程,点击咨询。

热门课程推荐

热门资讯

请绑定手机号

x

同学您好!

您已成功报名0元试学活动,老师会在第一时间与您取得联系,请保持电话畅通!
确定