🚀 DeepSeek + Ollama 本地部署全流程

✨ 引言

随着 AI 大模型的发展,越来越多的开发者希望在本地运行 AI 模型,以保证 数据隐私、安全性,同时减少对云端 API 的依赖。Ollama 是一个简洁高效的本地推理工具,支持 DeepSeek R1、LLaMA、Mistral 等多个大模型。

本教程将带你完成 Ollama 的安装,并在 Windows 上运行 DeepSeek,实现本地 AI 推理。


🛠️ 1. Windows 安装 Ollama

1.1 下载并安装 Ollama

1️⃣ 打开 Ollama 官网
2️⃣ 选择 Windows 版本 并下载
3️⃣ 运行 安装包 (.exe) ,按照指引完成安装
4️⃣ 安装完成后,打开 PowerShell命令提示符 (cmd) ,输入:

ollama

✅ 如果出现 Ollama 相关信息,说明安装成功。

在这里插入图片描述


📥 2. 下载并运行 DeepSeek R1 本地模型

2.1 拉取 DeepSeek R1 模型

DeepSeek R1 是一个适合编程辅助的 AI 模型,可用于 代码补全、代码优化、智能对话

在终端执行以下命令,拉取 DeepSeek R1 模型(大约 4GB):

ollama pull deepseek-coder

下载时间取决于你的网络速度,耐心等待完成。

在这里插入图片描述


🚀 3. 启动并使用 DeepSeek R1

3.1 运行 DeepSeek R1

下载完成后,执行以下命令启动模型:

ollama run deepseek-coder

如果运行成功,你会看到终端中出现模型加载信息,并提示可以输入问题。

✍️ 例如,你可以输入:

写一个Java版本的冒泡排序

🔹 DeepSeek R1 将会返回完整的 Java 代码,并提供解释。

在这里插入图片描述


🔗 4. 在 IntelliJ IDEA 中调用本地 DeepSeek R1

如果你希望在 IntelliJ IDEA 中直接调用本地模型,可以使用 API 接口方式。

4.1 开启 API 模式

执行以下命令,让 DeepSeek R1 在本地作为 API 服务器运行:

ollama serve

运行过程中发现 Ollama 运行 exe 执行后已经默认可以 API 访问。

默认情况下,Ollama 会在 http://localhost:11434 监听请求。
在这里插入图片描述


4.2 在 IntelliJ IDEA 中接入本地 AI 模型

1️⃣ 安装 CodeGPT 插件
在这里插入图片描述

2️⃣ 配置 CodeGPT Provider 选择 Ollama
在这里插入图片描述

3️⃣ 配置 Ollama API 地址和选择模型

在这里插入图片描述

4.3 在 IntelliJ IDEA 中使用 DeepSeek 模型效果

在这里插入图片描述


🔍 5. 解决常见问题

❓ Ollama 运行时报错:无法找到 GPU

🔹 目前 Windows 版本的 Ollama 仅支持 CPU,如果你希望用 GPU,可以考虑在 WSL2 或 Linux 环境运行。

❓ DeepSeek R1 启动缓慢或崩溃

🔹 可能是 内存不足,建议关闭其他占用内存较高的应用(如浏览器、IDE)后重试。

❓ 如何升级 Ollama

🔹 运行以下命令即可更新至最新版:

ollama update

📢 Mac 使用 IntelliJ IDEA 接入 DeepSeek 操作详细视频。

🎯 总结

本文介绍了 如何在 Windows 上安装 Ollama 并运行 DeepSeek R1,包括 安装、下载模型、启动本地 AI 推理,并且提供了在 IntelliJ IDEA 中调用本地 AI 模型的方法。

💡 本地 AI 模型的优势
✅ 保护隐私,代码不会上传到云端
✅ 无需依赖外部 API,断网也能用
✅ 降低成本,无需订阅付费 API

如果你有任何问题,欢迎在评论区交流!🔥

🌟 觉得有帮助的话,记得点赞 + 收藏!


Logo

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。

更多推荐