Stable Diffusion 想必大家都不陌生,而它的重要插件 ControlNet 更是许多AI绘画爱好者的必备工具。现在,ControlNet 的作者 lllyasviel 再次带来惊喜,开源了全新的 AI 视频生成算法 FramePack。
FramePack 能够根据单张图片生成对应的动态视频。比如这张静态的水母图片:
只需要上传图片并输入提示词:
The girl dances gracefully, with clear movements, full of charm.
就能得到流畅的舞蹈视频。FramePack 的其他生成效果同样令人印象深刻:
最令人惊喜的是其硬件需求的大幅降低。以往生成类似质量的视频通常需要多张A100显卡协同工作,而FramePack仅需:
FramePack是由斯坦福大学的Lvmin Zhang(ControlNet作者)和Maneesh Agrawala联合开发的next-frame预测神经网络。其核心技术亮点包括:
智能帧压缩技术
根据帧的重要性采用不同压缩模式,显著降低GPU显存需求。
反漂移采样方法
特别设计的第三种采样方法将用户输入视为高质量首帧,持续优化后续帧质量。
实时预览功能
用户可即时查看每一帧生成效果,不满意可随时停止,避免长时间等待。
https://github.com/lllyasviel/FramePack/releases
建议使用Python 3.10环境:
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu126
pip install -r requirements.txt
python demo_gradio.py
FramePack的出现标志着AI视频生成技术向大众化迈出了重要一步,让更多人能够以极低的硬件成本体验AI视频创作的乐趣。这项技术不仅是对现有AI视频生成方案的突破,更为未来的创作方式开辟了新的可能性。
一 | 二 | 三 | 四 | 五 | 六 | 日 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 |