Qwen2.5-Omni 7B 模型部署:镜像下载、环境安装及 demo 启动指南
本文详细阐述了 Qwen2.5-Omni-7B 模型的部署及演示运行过程。首先介绍了使用 modelscope 下载 Qwen/Qwen2.5-Omni-7B 模型至指定目录,以及拉取 qwenllm/qwen-omni:2.5-cu121 的 docker 镜像。接着说明了安装 NVIDIA Docker 工具包(nvidia-docker2)并重启 docker 的操作,以确保能在 Docke
·
本文采用docker方式启动
参考:https://github.com/QwenLM/Qwen2.5-Omni
下载模型
modelscope download --model Qwen/Qwen2.5-Omni-7B --local_dir /usr/local/ai/models/Qwen2.5-Omni-7B
下载docker镜像(耗时较长,耐心等待)
docker pull qwenllm/qwen-omni:2.5-cu121
下载后看一看模型有多大(约22G)
(base) root@deepseek:~# docker images
REPOSITORY TAG IMAGE ID CREATED SIZE
qwenllm/qwen-omni 2.5-cu121 04b7452fcedc 26 hours ago 22.1GB
安装 NVIDIA Docker 工具包(nvidia-docker2) ,它允许在 Docker 容器中使用 NVIDIA GPU
sudo apt-get install -y nvidia-docker2
重启docker
sudo systemctl restart docker
下载开源项目
cd /usr/local/ai/git-codes
git clone https://github.com/QwenLM/Qwen2.5-Omni.git
cd /usr/local/ai/git-codes/Qwen2.5-Omni/docker
修改 docker_web_demo.sh,注释掉docker pull部分,因为前面已经拉取了
- 修改前备份
cp docker_web_demo.sh docker_web_demo.bak.sh
- 修改docker_web_demo.sh内容:
运行demo
#进入目录
cd /usr/local/ai/git-codes/Qwen2.5-Omni
#运行demo(/usr/local/ai/models/Qwen2.5-Omni-7B是modelscope下载模型后存放位置)
bash docker/docker_web_demo.sh --checkpoint /usr/local/ai/models/Qwen2.5-Omni-7B
#输出:
41e9574eae11d646cb1b7d64ad14273e041d5fa344ef1b1f07700416639d170b
Successfully started web demo. Open 'http://localhost:8901' to try!
Run `docker logs qwen2.5-omni` to check demo status.
Run `docker rm -f qwen2.5-omni` to stop and remove the demo.
浏览器访问(默认8091端口)
说明:若gpu不足,但是需要执行较大图片、视频的对话,会出现错误。
用docker logs qwen2.5-omni命令可以看到如下类似的错误信息:
torch.OutOfMemoryError: CUDA out of memory. Tried to allocate 53.56 GiB.

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。
更多推荐
所有评论(0)