在这里插入图片描述
在这里插入图片描述


技术小白必看:
担心数据隐私外泄、怕数据上传云端?那么 Ollama 将是你的救星!你无需担心云端存储问题,Ollama 让你在本地笔记本上就能快速部署和运行 DeepSeek 模型。

解决方案:
Ollama 完全支持本地部署,支持 Mac/Win/Linux 系统,即使是没有显卡的普通CPU环境,也能流畅运行,不会造成任何性能瓶颈。这样,无论你是 律师 还是 研究员,都能在本地快速分析数据,确保隐私安全,同时提高工作效率。
适用人群:

  • 律师:可以本地处理案件资料,确保客户隐私不被泄露。
  • 研究员:可以离线处理实验数据,避免将敏感数据上传至云端,确保数据的保密性。

实际案例: 一家大型律师事务所通过 DeepSeek + Ollama,将所有案件卷宗本地化存储和处理,确保客户的隐私安全。律师们无需联网即可在本地进行深入分析,提升了工作效率,也降低了数据泄露的风险。

一、下载安装Ollama
1. DeepSeek 不同版本模型硬件要求

以下是 DeepSeek 不同版本模型的硬件要求,小伙伴们可以结合自己电脑配置选择版本

模型版本 参数量 显存需求 推荐 GPU(单卡) 多卡支持 量化支持 适用场景
DeepSeek-R1-1.5B 15亿 3GB GTX 1650(4GB显存) 无需 支持 低资源设备部署(树莓派、旧款笔记本)、实时文本生成、嵌入式系统
DeepSeek-R1-7B 70亿 14GB RTX 3070/4060(8GB显存) 可选 支持 中等复杂度任务(文本摘要、翻译)、轻量级多轮对话系统
DeepSeek-R1-8B 80亿 16GB RTX 4070(12GB显存) 可选 支持 需更高精度的轻量级任务(代码生成、逻辑推理)
DeepSeek-R1-14B 140亿 32GB RTX 4090/A5000(16GB显存) 推荐 支持 企业级复杂任务(合同分析、报告生成)、长文本理解与生成
DeepSeek-R1-32B 320亿 64GB A100 40GB(24GB显存) 推荐 支持 推荐 支持 高精度专业领域任务(医疗/法律咨询)、多模态任务预处理
DeepSeek-R1-70B 700亿 140GB 2x A100 80GB/4x RTX 4090(多卡并行) 必需 支持 科研机构/大型企业(金融预测、大规模数据分析)、高复杂度生成任务
DeepSeek-671B 6710亿 512GB+ 单卡显存需求极高,通常需要多节点分布式训练) 8x A100/H100(服务器集群) 必需 支持 国家级/超大规模 AI 研究(气候建模、基因组分析)、通用人工智能(AGI)探索
2. 下载Ollama

访问官网:https://ollama.com/download下载
在这里插入图片描述

3. 配置环境变量

不配置环境变量,下载的模型默认安装到C盘,跳过此步骤不影响效果展现。
根据自己实际磁盘情况配置即可

OLLAMA_HOST=E:\deepseek\Ollama

在这里插入图片描述
OLLAMA_HOST=0.0.0.0:11434:让虚拟机里的程序能访问本机上运行的 Ollama 模型

OLLAMA_HOST=0.0.0.0:11434

在这里插入图片描述

注意配置之后保险起见一定要重启电脑

4. 安装Ollama

在这里插入图片描述

5. 检验Ollama是否安装成功

命令行输入 ollama -v 命令,出现如下版本号说明安装成功

ollama -v 

在这里插入图片描述

二、通过 Ollama 拉取 DeepSeek 模型

这里我选择是的1.5b,整个模型大小1.1 GB。

  • 1.5B:适用于轻量级任务,如边缘设备(如智能手表、物联网设备)上的简单交互、小型智能问答系统等。目前开源的最小版本。
  • 671B:主要用于大规模云端推理,适合科研分析、数据挖掘等需要处理海量数据的复杂任务。目前开源的最强版本
    更多版本可以在这里查看:https://ollama.com/library/deepseek-r1
    在这里插入图片描述
2.1. 下载deepseek-r1模型

在这里插入图片描述

命令行输入:ollama run deepseek-r1:1.5b 拉取DeepSeek模型

ollama run deepseek-r1:1.5b

整个拉取过程还是比较丝滑的,5到6分钟后看到【success】字样,代表成功安装DeepSeek R1,然后就可以与DeepSeek对话了
在这里插入图片描述

2.2. 与DeepSeek对话

通过上面步骤之后,我们就可以愉快的与Deep Seek对话了,如输入:你是谁?

你是谁?

在这里插入图片描述

到此,本地部署DeepSeek + Ollama搞定了。

Logo

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。

更多推荐