1. 操作步骤

1.1 安装

# 通过 homebrew 安装
brew install ollama

1.2 验证(可跳过)

# 输出命令使用提示则安装成功
ollama --help

1.3 启动服务端

# 启动 ollama 服务(默认在 11434 端口,模型文件在 ~/.ollama)
ollama serve

1.4 跑通第一个模型

# 新开一个终端窗口,执行如下命令(将下载并运行 Qwen2 的 0.5B 的 Chat 模型)
ollama run qwen2.5:0.5b-instruct

2. 参考资料

2.1 Ollama

GitHub

https://github.com/ollama/ollama

3. 资源

3.1 Ollama

library(模型工厂)

https://ollama.com/library

Logo

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。

更多推荐