安装open-webui本地网页访问大模型服务
本文介绍了如何通过open-webui在本地部署Qwen3-14B大模型的Web界面。主要步骤包括:创建Python3.11的conda环境,一键安装open-webui,配置vLLM模型API接口的环境变量,启动服务后通过浏览器访问8080端口进行注册和使用。重点提示需将OPENAI_API_BASE_URL指向本地模型服务地址(如127.0.0.1:8000/v1),并设置HF_HUB_OFF
昨天本地安装好了vLLM的Qwen3-14B模型后,今天安装open-webui来将大模型的应用显示在web界面上,采用开源库https://github.com/open-webui/open-webui进行部署。想要详细了解这个开源库官方文档:🏡 Home | Open WebUI
部署很简单,但是要注意本地部署vLLM的模型需要以外部连接的方式进行访问,下面是安装步骤:
1.新建一个conda环境注意需要python3.11
conda create -n webui python=3.11
2.直接pip一键安装
pip install open-webui
3.将vLLM中的链接配置为环境变量,将下面语句添加到~/.bashrc中
export OPENAI_API_BASE_URL=http://127.0.0.1:8000/v1
export HF_HUB_OFFLINE=1
OPENAI_API_BASE_URL表示大模型的调用API接口(符合openai的规范),后面参数里的IP端口替换为自己大模型部署的服务器
export HF_HUB_OFFLINE=1表示仅使用离线大模型
执行下面命令,让环境变量生效
source ~/.bashrc
4.执行服务启动命令
open-webui serve
然后按照下面的操作即可实现本地AI模型的调用了,可以保护隐私数据避免上穿到云端大模型服务器:
新用户请点击注册,注册新账号

2.登录后,按照下图打开设置

3.将下面的连接添加到设置中
http://192.168.2.248:8000/v1(按照自己大模型的位置修改)
4.刷新网页即可使用大模型

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。
更多推荐

所有评论(0)