AI软件下载
有趣网站推荐及实用软件下载

ImportError: Requires Flash-Attention version >=2.7.1,<=2.8.2 but got 2.8.3.

今天在调试python应用的时候发生报错,部分错误信息如下:

……

File “/root/miniconda3/lib/python3.10/site-packages/xformers/ops/fmha/flash.py”, line 82, in <module> raise ImportError( ImportError: Requires Flash-Attention version >=2.7.1,<=2.8.2 but got 2.8.3.

意思就是Flash-Attention版本不对,要小于等于2.8.2.

可以直接运行下面命令安装

pip install ninja -i https://pypi.tuna.tsinghua.edu.cn/simple

MAX_JOBS=4 pip install flash-attn==2.8.2 --no-build-isolation -i https://pypi.tuna.tsinghua.edu.cn/simple

但是flash-attn安装过程需要编译,耗时可能几个小时,所以我没使用上面的方法,最好是安装编译好的whl

可以重装torch和xformers,原来torch2.8,先降低torch和xformers版本,代码如下

pip install torch==2.7.1 torchvision==0.22.1 torchaudio==2.7.1 xformers==0.0.31 --index-url https://download.pytorch.org/whl/cu128

安装完成后Flash-Attention版本需要 >=2.7.1,<=2.8.0

然后再安装Flash-Attention 2.8.0 whl,命令如下:

pip install https://github.com/Dao-AILab/flash-attention/releases/download/v2.8.0.post2/flash_attn-2.8.0.post2+cu12torch2.7cxx11abiTRUE-cp310-cp310-linux_x86_64.whl

这样安装速度就很快,就不需要再进行漫长的编译等待了。

类似报错:ImportError: Requires Flash-Attention version >=2.7.1,<=2.8.0 but got 2.8.2.一样的解决原理


在新的机器上,同样的环境,我先把xformers删除掉了,运行的时候没有报错:Requires Flash-Attention version >=2.7.1,<=2.8.2 but got 2.8.3.

或许是和xformers冲突了。

AI应用在线一键启动,低价爽玩4090:立即体验>>

软件催更及1对1人工答疑支持: https://nuowa.net/1806
赞(0) 打赏
软件无法使用?点击查看常见问题说明>>

最近更新

comfyui视频人物换主体工作流及模型下载-诺瓦小站

comfyui视频人物换主体工作流及模型下载

本次分享一个好玩的视频人物换主体工作流,本工作流可以使用一张图片中的主体替换视频中的人物主体。比如抖音上很多热门的猴子炒饭,奥特曼炒饭,猴子vlog等等,都可以使用人物主体替换把原来视频中的人物替换成指定的人物。 comfyui工作流节点使...

凡人修仙传动画韩立高清图片壁纸素材AI绘画图集-诺瓦小站

凡人修仙传动画韩立高清图片壁纸素材AI绘画图集

恭迎韩天尊! 祝贺韩天尊顺利结婴! 热门国漫凡人修仙传动画已经更新了5年了,最新一集,主人公韩立顺利结婴,成为一名元婴修士。我属于是比较喜欢看动漫的,看过的动漫估计没过百也得大几十了,热门国漫大多都看过。凡人修仙传算是最喜欢的动漫之一,韩立...

觉得文章对你有帮助就打赏一下作者

非常感谢你的打赏,我将有更多的动力继续提供优质内容,让我们一起创建更加美好的世界!

支付宝扫一扫

微信扫一扫