docker 安装的open-webui链接ollama出现网络错误
部署完ollama以后,使用谷歌浏览器的插件Page Assist - 本地 AI 模型的 Web UI 可以比较流畅的使用DeepSeek,但是只局限于个人使用,想分享给更多的小伙伴使用,于是打算使用。在网上查了很多资料说是用host模式,结果更是用不了,open-webui的页面都进不去了,下面是host模式的代码,知道是网络的原因,暂时没想到怎么解决,于是灵机一动想到是不是open-webu
# 故事背景
部署完ollama以后,使用谷歌浏览器的插件Page Assist - 本地 AI 模型的 Web UI 可以比较流畅的使用DeepSeek,但是只局限于个人使用,想分享给更多的小伙伴使用,于是打算使用open-webui 来管理用户,经官网推荐使用docker进行安装
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
很顺利的就安装成功,并注册了管理员账户,但是在添加模型的时候总是404

在网上查了很多资料说是用host模式,结果更是用不了,open-webui的页面都进不去了,下面是host模式的代码,知道是网络的原因,暂时没想到怎么解决,
sudo docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
于是认真的想了想docker的相关,发现docker有管理网络的方案于是尝试使用host.docker.internal来创建容器,发现可行,但是open-webui还是网络错误,
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=http://host.docker.internal:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
于是灵机一动想到是不是open-webui中的ollama API地址是不是也可以这么配置,尝试下发现真的可以,下面是配置的完整url http://host.docker.internal:11434

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。
更多推荐

所有评论(0)