AnimateDiff介绍

AnimateDiff采用控制模块来影响Stable Diffusion模型,通过大量短视频剪辑的训练,它能够调整图像生成过程,生成一系列与训练视频剪辑相似的图像。简言之,AnimateDiff通过训练大量短视频来优化图像之间的过渡,确保视频帧的流畅性。

与传统的SD模型训练方式不同,AnimateDiff通过大量短视频的训练来提高图像之间的连续性,使得生成的每一张图像都能经过AnimateDiff微调,最终拼接成高质量短视频。

图片

官方视频效果

图片

图片

安装

使用 AnimateDiff 需要安装 SD 插件和 AnimateDiff 模型。

SD插件安装

如果能科学上网,可以直接在扩展->从网址安装中填入 

https://github.com/continue-revolution/sd-webui-animatediff.git

图片

如果没办法通过网站安装,见下文参考资料获取下载地址。

模型下载

安装好插件之后,将 AnimateDiff 模型下载放到 stable-diffusion-webui/extensions/sd-webui-animatediff/model/

下载链接:https://huggingface.co/guoyww/animatediff

如果无法下载,见下文参考资料获取下载地址,找到 mm_sd_v15_v2.ckpt 放到本地的目录中即可。

安装成功之后,重启 Stable Diffusion,在文生图页面可以看到 AnimateDiff 插件配置。

图片

参考资料

github

https://github.com/guoyww/animatediff/

论文

https://arxiv.org/pdf/2307.04725.pdf

sdwebui官方

https://github.com/continue-revolution/sd-webui-animatediff

SD插件、模型国内下载

https://aifasthub.com/models/guoyww

Logo

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。

更多推荐