昨天本地安装好了vLLM的Qwen3-14B模型后,今天安装open-webui来将大模型的应用显示在web界面上,采用开源库https://github.com/open-webui/open-webui进行部署。想要详细了解这个开源库官方文档:🏡 Home | Open WebUI

        部署很简单,但是要注意本地部署vLLM的模型需要以外部连接的方式进行访问,下面是安装步骤:

        1.新建一个conda环境注意需要python3.11

conda create -n webui python=3.11

        2.直接pip一键安装

pip install open-webui

        3.将vLLM中的链接配置为环境变量,将下面语句添加到~/.bashrc中

export OPENAI_API_BASE_URL=http://127.0.0.1:8000/v1
export HF_HUB_OFFLINE=1

OPENAI_API_BASE_URL表示大模型的调用API接口(符合openai的规范),后面参数里的IP端口替换为自己大模型部署的服务器
export HF_HUB_OFFLINE=1表示仅使用离线大模型
 执行下面命令,让环境变量生效

source ~/.bashrc

        4.执行服务启动命令

open-webui serve

        然后按照下面的操作即可实现本地AI模型的调用了,可以保护隐私数据避免上穿到云端大模型服务器:

  1. 浏览器输入http://192.168.2.248:8080/

新用户请点击注册,注册新账号

        2.登录后,按照下图打开设置

        3.将下面的连接添加到设置中

http://192.168.2.248:8000/v1(按照自己大模型的位置修改)

        4.刷新网页即可使用大模型

   

    Logo

    魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。

    更多推荐