AI软件下载
有趣网站推荐及实用软件下载

ImportError: Requires Flash-Attention version >=2.7.1,<=2.8.2 but got 2.8.3.

今天在调试python应用的时候发生报错,部分错误信息如下:

……

File “/root/miniconda3/lib/python3.10/site-packages/xformers/ops/fmha/flash.py”, line 82, in <module> raise ImportError( ImportError: Requires Flash-Attention version >=2.7.1,<=2.8.2 but got 2.8.3.

意思就是Flash-Attention版本不对,要小于等于2.8.2.

可以直接运行下面命令安装

pip install ninja -i https://pypi.tuna.tsinghua.edu.cn/simple

MAX_JOBS=4 pip install flash-attn==2.8.2 --no-build-isolation -i https://pypi.tuna.tsinghua.edu.cn/simple

但是flash-attn安装过程需要编译,耗时可能几个小时,所以我没使用上面的方法,最好是安装编译好的whl

可以重装torch和xformers,原来torch2.8,先降低torch和xformers版本,代码如下

pip install torch==2.7.1 torchvision==0.22.1 torchaudio==2.7.1 xformers==0.0.31 --index-url https://download.pytorch.org/whl/cu128

安装完成后Flash-Attention版本需要 >=2.7.1,<=2.8.0

然后再安装Flash-Attention 2.8.0 whl,命令如下:

pip install https://github.com/Dao-AILab/flash-attention/releases/download/v2.8.0.post2/flash_attn-2.8.0.post2+cu12torch2.7cxx11abiTRUE-cp310-cp310-linux_x86_64.whl

这样安装速度就很快,就不需要再进行漫长的编译等待了。

类似报错:ImportError: Requires Flash-Attention version >=2.7.1,<=2.8.0 but got 2.8.2.一样的解决原理


在新的机器上,同样的环境,我先把xformers删除掉了,运行的时候没有报错:Requires Flash-Attention version >=2.7.1,<=2.8.2 but got 2.8.3.

或许是和xformers冲突了。

AI应用在线一键启动,低价爽玩4090:立即体验>>

软件催更及1对1人工答疑支持: https://nuowa.net/1806
赞(0) 打赏
软件无法使用?点击查看常见问题说明>>

最近更新

UV包管理器用法基础教程

UV是一个用 Rust 编写的高性能工具,旨在替代 Python 传统的包管理工具链,速度比 pip 和 Conda 快数十甚至上百倍。 安装 uv 你可以通过一条命令安装 uv: 安装后,...

comfyui视频人物换主体工作流及模型下载-诺瓦小站

comfyui视频人物换主体工作流及模型下载

本次分享一个好玩的视频人物换主体工作流,本工作流可以使用一张图片中的主体替换视频中的人物主体。比如抖音上很多热门的猴子炒饭,奥特曼炒饭,猴子vlog等等,都可以使用人物主体替换把原来视频中的人物替换成指定的人物。 comfyui工作流节点使...

觉得文章对你有帮助就打赏一下作者

非常感谢你的打赏,我将有更多的动力继续提供优质内容,让我们一起创建更加美好的世界!

支付宝扫一扫

微信扫一扫