前段时间阿里开源了一个AI视频生成工具WAN2.1,可以实现文本转视频和图片转视频,虽说很强大,但是测试之后感觉软件对电脑配置要求太高了,感觉应该大部分用户都用不了,而且只支持720P视频,清晰度有些低,所以没和大家分享。前些天又出了一个更牛的AI视频生成软件FramePack,这个软件英伟达显卡显存6G即可体验,远远降低了使用门槛,我基于当前最新版本制作了一键启动整合包。

FramePack介绍
FramePack 是一个渐进式生成视频的下一帧(下一帧部分)预测神经网络结构。
FramePack 将输入上下文压缩为恒定长度,以便生成工作量不受视频长度的影响。
即使在笔记本电脑 GPU 上,FramePack 也可以使用 13B 模型处理大量帧。
FramePack 可以使用更大的批量大小进行训练,类似于图像扩散训练的批量大小。
视频扩散,但感觉像图像扩散。
FramePack-F1
FramePack-F1是一种仅通过历史帧预测未来帧的FramePack模型。
“F1″代表”前向”版本1,表明其预测方向(该模型仅进行正向预测,而非反向预测)。这种单向预测模型相比默认的双向模型具有更少的约束条件,因此能呈现更大的变化幅度和更丰富的动态效果。像提示词穿梭这类应用场景应该会获得更佳效果。
但构建此类模型的主要挑战在于如何防止视频生成过程中出现漂移现象(或称误差累积)。该模型采用了一项新型抗漂移调控技术进行训练,相关论文将很快在Arxiv平台更新。

FramePack整合包使用教程

首先将网盘内的软件压缩包下载到本地电脑上并解压,首先需要下载模型,先点击下载模型后面1.0按钮下载模型,如果你想使用F1版,也需要先下载1.0版模型,然后再下载F1版模型。模型非常大,超过了40G,如果下载所有版本模型文件的话,总共硬盘空间占用约65G。
模型从魔塔站点下载,国内速度非常快,不会需要太久,等到黑色终端窗口里输出模型下载完成提示信息的时候,就是下载完成了,如果没提示输出下载完成信息的话就是没下载完,如果报错终止的话,可以重新运行下载程序继续接着之前进度下载。
点击按钮启动webUI,启动时会加载模型,请耐心等待,启动完成后会自动打开webui界面。
先上传一张参考图片,然后在prompt提示词输入框里输入想要生成视频的画面内容描述,然后点击start generate 开始合成视频。
默认视频时长是5秒,最大可生成120秒视频,可通过参数Total Video Length (Seconds)设置。
其它参数保持默认即可
整合包修改内容:
增加了对20系列显卡的支持
模型下载站点由原来国外的huggingface改为国内的魔塔,方便国内用户使用
其它部分细节上的修改
注意事项
虽然官方文档说明6G显存可用,但是速度极慢,建议英伟达显卡显存6G以上用户体验
内存大于32G
只支持windows10或11
软件运行路径中不要有非英文字符和空格,待处理文件同样要注意
免费AI视频生成软件FramePack下载链接
https://pan.quark.cn/s/167b995b6426
https://pan.baidu.com/s/1Gbv6-bXoZUcs2GCko1Kldw?pwd=apeh