目录

前言

一、如何查看当前端口

二、如何修改对外映射的端口

1. 编辑服务配置文件

2. 修改环境变量

3. 完整配置文件参考

4. 保存并重启服务

5. 验证修改

⚠️ 修改端口后的重要注意事项


前言

我们有两种部署ollama的方法,一种是直接通过curl命令安装在宿主机上面,一种是通过镜像部署。对于使用curl命令安装的方法,在Linux系统上安装Ollama后,其服务的默认端口是 11434。通常为了解决端口冲突或允许从其他设备访问,需要查看和修改这个端口。


一、如何查看当前端口

安装后,Ollama服务默认会监听本机地址(127.0.0.1)的11434端口。你可以使用以下命令来确认它是否正在运行及监听端口:

方法 命令 说明
查看监听端口 sudo netstat -tulpn | grep :11434 查看11434端口是否被Ollama进程监听。
sudo ss -tulpn | grep :11434 使用更现代的 ss 命令,效果类似。
查看服务状态 sudo systemctl status ollama 直接检查Ollama服务的运行状态。

二、如何修改对外映射的端口

修改端口需要编辑Ollama的服务配置文件。主要步骤和核心配置如下:

1. 编辑服务配置文件

使用你熟悉的文本编辑器(如 sudo vi 或 sudo nano)打开配置文件:

sudo vi /etc/systemd/system/ollama.service

2. 修改环境变量

在 [Service] 部分,找到或添加 Environment="OLLAMA_HOST=..." 这一行。

  • 如果你想允许局域网内其他设备访问,可以将监听地址设置为 0.0.0.0,并指定一个新端口(例如 11435):
Environment="OLLAMA_HOST=0.0.0.0:11435"
  • 如果仅需改变端口但依旧只允许本机访问,可以设置:
Environment="OLLAMA_HOST=127.0.0.1:11435"

3. 完整配置文件参考

文件1:

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
#Environment="PATH=/home/gwi-ai/miniconda3/bin:/home/gwi-ai/miniconda3/condabin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin:/snap/bin"
Environment="OLLAMA_HOST=0.0.0.0:11434"
[Install]
WantedBy=default.target

文件2:

[Unit]
Description=Ollama Service
After=network-online.target

[Service]
ExecStart=/usr/local/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
#Environment="PATH=/home/gwi-ai/miniconda3/bin:/home/gwi-ai/miniconda3/condabin:/usr/local/sbin:/usr/local/bin:/usr/sbin:/usr/bin:/sbin:/bin:/usr/games:/usr/local/games:/snap/bin:/snap/bin"
Environment="OLLAMA_HOST=0.0.0.0:11434"
[Install]
WantedBy=default.target

4. 保存并重启服务

保存对文件的修改后,依次执行以下命令使配置生效:

sudo systemctl daemon-reload
sudo systemctl restart ollama

5. 验证修改

再次使用 sudo netstat -tulpn \| grep :新端口号(如11435)命令,检查Ollama是否已开始监听你设置的新端口。

⚠️ 修改端口后的重要注意事项

修改端口后,常规的 ollama runollama list 等命令会失效,因为它们默认仍尝试连接旧端口。你有以下两种方式解决:

  • 每次执行时指定端口:在任何 ollama 命令前,通过环境变量临时指定新端口。

OLLAMA_HOST=127.0.0.1:11435 ollama list
  • 一劳永逸的方法:将环境变量 OLLAMA_HOST 添加到你的用户环境(如 ~/.bashrc)中,这样所有终端会话都会自动使用新端口。
echo 'export OLLAMA_HOST="127.0.0.1:11435"' >> ~/.bashrc
source ~/.bashrc

如果你还需要配置其他选项(如模型下载路径、并发请求数等),可以在同一个配置文件中添加对应的环境变量。


Logo

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。

更多推荐