遇到的错误:
请添加图片描述

背景:将qwen大模型部署到新的服务器上,之前服务器显卡是4090,新的服务器显卡是P40。

分析原因:

在网上搜了很多博客,也问了chatgpt,基本可以确定是显卡版本、CUDA版本、pytorch版本有地方不兼容。

之前调用大模型一直用的vllm,网上搜了下,可以确定P40显卡缺少一些算子,不支持vllm调用大模型。

cuda版本为11.8,也不是最新的,P40是支持的。

pytorch版本为2.1.2,大模型一直强调是xformer不支持,于是降低pytorch版本(其本质也是降低xformer版本)。

查看当前xformer版本:0.0.23.post1+cu118

11.8支持的xformer版本:versions: 0.0.22.post3+cu118, 0.0.22.post4+cu118, 0.0.22.post7+cu118, 0.0.23+cu118, 0.0.23.post1+cu118, 0.0.24+cu118, 0.0.25+cu118, 0.0.25.post1+cu118, 0.0.26+cu118, 0.0.26.post1+cu118, 0.0.27+cu118, 0.0.27.post1+cu118, 0.0.27.post2+cu118, 0.0.28, 0.0.28.post1)

选择最低的0.0.22.post3+cu118安装:pip install xformers==0.0.22.post3 --index-url https://download.pytorch.org/whl/cu118

安装完之后,pytorch版本降低到2.1.0

运行qwen大模型,成功!

参考文献:
1、https://blog.csdn.net/m0_51098495/article/details/138283650
2、https://zhuanlan.zhihu.com/p/466793485
3、https://www.zhihu.com/question/299434830/answer/3633527240?utm_psn=1846882109748293633

Logo

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。

更多推荐