Open-Webui和RAGFlow无法加载ollama模型
【代码】Open-Webui和RAGFlow无法加载ollama模型。
·
sudo vim /etc/systemd/system/ollama.service
#添加环境变量
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_ORIGINS=*"
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=/root/bin:/home/zxw/anaconda3/bin:/home/zxw/anaconda3/condabin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin:/usr/local/cuda/bin"
Environment="OLLAMA_HOST=0.0.0.0:11434"
Environment="OLLAMA_ORIGINS=*"
[Install]
WantedBy=default.target
#为了使更改生效,您需要重新加载systemd的配置。使用以下命令:
sudo systemctl daemon-reload
#最后,重启服务以应用更改:
sudo systemctl restart ollama
注意配置防火墙规则:
1.当然您可以直接关了他。
2.如果服务器有防火墙(如iptables或ufw),确保开放了Ollama使用的端口(默认为11434)。您可以使用以下命令开放端口:
sudo iptables -I INPUT -p tcp --dport 11434 -j ACCEPT
或者,如果您使用的是ufw:
sudo ufw allow 11434/tcp
原文链接:https://blog.csdn.net/liujianming90/article/details/137452942
魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。
更多推荐

所有评论(0)