
AnimateDiff是什么?
AnimateDiff 是一個能夠將個性化的文本轉換為圖像的擴展模型,它可以在無需特定調整的情況下實現動畫效果。通過這個項目,用戶可以將他們的想象力以高質量圖像的形式展現出來,同時以合理的成本實現這一目標。隨著文本到圖像模型(例如,Stable Diffusion)和相應的個性化技術(例如,LoRA 和 DreamBooth)的進步,現在每個人都可以將他們的想象力轉化為高質量的圖像。隨后,為了將生成的靜態圖像與運動動態相結合,對圖像動畫技術的需求也隨之增加。
AnimateDiff可以做什么?
AnimateDiff 提供了一個有效的框架,可以為大多數現有的個性化文本到圖像模型提供動畫效果,而無需為每個模型進行特定的調整。它的核心思想是向基礎的文本到圖像模型中添加一個新初始化的運動建模模塊,并在視頻剪輯上對其進行訓練,以提取合理的運動先驗。一旦訓練完成,只需注入這個運動建模模塊,所有從同一基礎模型派生的個性化版本都可以立即成為產生多樣化和個性化動畫圖像的文本驅動模型。
AnimateDiff支持鏡頭平移:遠近、左右、上下、旋轉等操作。

AnimateDiff使用場景
- 動畫創建:通過文本輸入,用戶可以創建個性化的動畫圖像,將靜態圖像轉變為動態圖像,為創意表達提供了一種新的方式。
- 視頻制作:為視頻制作人員提供了一種新的工具,可以將文本描述轉換為動畫圖像,從而豐富視頻內容。
如何使用AnimateDiff?
在線體驗:https://huggingface.co/spaces/guoyww/AnimateDiff
項目主頁:https://animatediff.github.io/
論文地址:https://arxiv.org/abs/2307.04725
GitHub地址:https://github.com/guoyww/AnimateDiff

