本文采用docker方式启动

参考:https://github.com/QwenLM/Qwen2.5-Omni


下载模型

modelscope download --model Qwen/Qwen2.5-Omni-7B --local_dir /usr/local/ai/models/Qwen2.5-Omni-7B

下载docker镜像(耗时较长,耐心等待)

docker pull qwenllm/qwen-omni:2.5-cu121

下载后看一看模型有多大(约22G)

(base) root@deepseek:~# docker images
REPOSITORY                          TAG           IMAGE ID       CREATED         SIZE
qwenllm/qwen-omni                   2.5-cu121     04b7452fcedc   26 hours ago    22.1GB

安装 NVIDIA Docker 工具包(nvidia-docker2) ,它允许在 Docker 容器中使用 NVIDIA GPU

sudo apt-get install -y nvidia-docker2

重启docker

sudo systemctl restart docker

下载开源项目

cd /usr/local/ai/git-codes
git clone https://github.com/QwenLM/Qwen2.5-Omni.git
cd /usr/local/ai/git-codes/Qwen2.5-Omni/docker

修改 docker_web_demo.sh,注释掉docker pull部分,因为前面已经拉取了

  • 修改前备份
cp docker_web_demo.sh docker_web_demo.bak.sh
  • 修改docker_web_demo.sh内容:


运行demo

#进入目录
cd /usr/local/ai/git-codes/Qwen2.5-Omni
#运行demo(/usr/local/ai/models/Qwen2.5-Omni-7B是modelscope下载模型后存放位置)
bash docker/docker_web_demo.sh --checkpoint /usr/local/ai/models/Qwen2.5-Omni-7B
#输出:
41e9574eae11d646cb1b7d64ad14273e041d5fa344ef1b1f07700416639d170b
Successfully started web demo. Open 'http://localhost:8901' to try!
Run `docker logs qwen2.5-omni` to check demo status.
Run `docker rm -f qwen2.5-omni` to stop and remove the demo.

浏览器访问(默认8091端口)


说明:若gpu不足,但是需要执行较大图片、视频的对话,会出现错误。

docker logs qwen2.5-omni命令可以看到如下类似的错误信息:

torch.OutOfMemoryError: CUDA out of memory. Tried to allocate 53.56 GiB. 

Logo

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。

更多推荐