一、为什么需要本地部署属于自己的大模型?
  1. 趋势:我们正处于AI人工智能时代,各行各业的公司和产品都在向AI靠拢。打造垂直领域的AI模型将成为每个公司未来的发展趋势。
  2. 数据安全:在无法掌握核心算法的情况下,许多公司选择使用大公司的成熟方案。然而,这涉及到数据安全的问题。训练垂直定制化的大模型需要大量数据,而数据是公司的核心资产和基石。没有公司愿意将这些关键数据上传到外部服务器,这是公司的命脉所在。
  3. 本地部署的重要性:因此,本地部署和训练自有或定制化的大模型显得尤为重要。这不仅是未来的发展趋势,也是程序员必须掌握的关键流程和解决方案。
二、如何拥有属于自己的本地大模型呢?

经过博主深入评估和多次测试,为您推荐以下解决方案:

  • 使用 Llama3:8b 作为模型
  • 通过 Ollama 部署
  • 利用 Llama.cpp 进行量化优化
  • 采用 Unsloth 进行模型训练和微调
三、为什么要选择这个方案?
1、Llama3:8b
  • 低算力需求和成本:Llama3:8b 对计算资源的需求较小,运营成本低。
  • 卓越的上下文记忆能力:模型能够有效记住上下文,满足业务需求。
  • 灵活的微调能力:适应不同的业务场景和需求。
  • 开源:社区支持强大,开发者资源丰富。
2、Ollama
  • 活跃的生态和开发者社区:提供丰富的资源和支持。
  • 高效的部署和运行:确保模型的稳定性和性能。
  • 灵活的 API 接口:满足业务对训练模型的多样化需求。
  • 开源且易于使用:降低了上手难度,适合快速开发和迭代。
3、Llama.cpp
  • 广泛支持 Llama3:8b 的量化工具:目前市面上对 Llama3:8b 支持最好的量化工具之一。
  • 丰富的教程资源:学习和使用成本低。
  • 开源:开发者可以自由使用和修改,社区贡献积极。
4、Unsloth
  • 多样化的数据集支持:能够处理不同类型的数据,适应性强。
  • 优异的性能:训练效果显著,能够提高模型的精度。
  • 本地训练支持:对数据隐私有更好的保护。
  • 开源:开发者可以自由访问和修改,提升了灵活性和可控性。
四、话不多说,让我们开始吧!
1、安装 Ubuntu 【NVIDIA GPU驱动安装】

为什么需要使用 GPU 去跑我们的大模型呢?

  • 训练时间:使用GPU可以显著缩短模型的训练时间。例如,一个复杂的深度学习模型在GPU上可能只需要几小时,而在CPU上可能需要几天甚至几周。
  • 模型推理:在推理阶段,尤其是需要处理大量实时数据时,GPU的高并行处理能力可以提供更快的响应时间和更高的吞吐量。

虽然CPU也可以用于运行大模型,但在处理深度学习任务时,GPU的并行计算能力、计算性能和专用硬件支持使其更为适合。GPU能够显著提升大模型的训练和推理效率,降低时间和功耗成本。

一、官方方案

参考文档:

CUDA Toolkit 12.4 Update 1 Downloads | NVIDIA Developer

二、方案二(经实践,简单 好用)

1、安装 CUDA:

官网脚本: developer.nvidia.com/cuda-toolki…

shell
复制代码
# 脚本文件命令(根据上述网站)
wget https://developer.download.nvidia.com/compute/cuda/repos/ubuntu2204/x86_64/cuda-ubuntu2204.pin
sudo mv cuda-ubuntu2204.pin /etc/apt/preferences.d/cuda-repository-pin-600
wget https://developer.download.nvidia.com/compute/cuda/12.1.0/local_installers/cuda-repo-ubuntu2204-12-1-local_12.1.0-530.30.02-1_amd64.deb
sudo dpkg -i cuda-repo-ubuntu2204-12-1-local_12.1.0-530.30.02-1_amd64.deb
sudo cp /var/cuda-repo-ubuntu2204-12-1-local/cuda-*-keyring.gpg /usr/share/keyrings/
sudo apt-get update
sudo apt search cuda-toolkit
sudo apt-get -y install cuda

2、安装驱动: shell

csharp
复制代码
# 系统会推荐安装驱动的版本区间
sudo ubuntu-drivers devices
​
# 安装合适版本驱动
sudo apt-get install -y cuda-drivers-550
​
# 验证
nvidia-smi
watch -n 5 nvidia-smi

image-20240516161721445.png

2、首先我们需要安装 Ollama

参考官方文档: GitHub - ollama/ollama: Get up and running with Llama 3, Mistral, Gemma, and other large language models.

方案 一:快速安装,只能安装最新版本,经检测 最新版有Bug。

arduino
复制代码
curl -fsSL https://ollama.com/install.sh | sh

方案二:手动安装,自由灵活。

1、二进制文件下载。

ruby
复制代码
sudo curl -L https://ollama.com/download/ollama-linux-amd64 -o /usr/bin/ollama

历史版本下载:

Releases · ollama/ollama (github.com)

2、给文件添加执行权限

bash
复制代码
sudo chmod +x /usr/bin/ollama

3、创建 ollama 用户

bash
复制代码
sudo useradd -r -s /bin/false -m -d /usr/share/ollama ollama

4、创建配置文件

bash
复制代码
vi /etc/systemd/system/ollama.service

配置文件参考

ini
复制代码
[Unit]
Description=Ollama Service
After=network-online.target
​
[Service]
ExecStart=/usr/bin/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
​
# 监听端口
Environment="OLLAMA_HOST=0.0.0.0:11434"
# 模型下载位置 (需要给 ollama用户文件夹权限: sudo chown ollama:ollama ollama/)
Environment="OLLAMA_MODELS=/home/ek-p/ollama"
# 单模型并发数量
Environment="OLLAMA_NUM_PARALLEL=100"
# Gpu选择 (如有GPU,需要在硬件安装GPU去驱动,安装文档参考下文。)
Environment="CUDA_VISIBLE_DEVICES=0,1"
# 多模型并发数量
Environment="OLLAMA_MAX_LOADED_MODELS=3"
​
[Install]
WantedBy=default.target

5、启动 Ollama

bash
复制代码
sudo systemctl daemon-reload
sudo systemctl enable ollama

6、查看日志

复制代码
journalctl -u ollama -r

7、问题:文件夹权限不够

ini
复制代码
May 16 16:24:25 ek-s systemd[1]: ollama.service: Failed with result 'exit-code'.
May 16 16:24:25 ek-s systemd[1]: ollama.service: Main process exited, code=exited, status=1/FAILURE
May 16 16:24:25 ek-s ollama[10780]: Error: mkdir /home/ekw-p: permission denied

bash
复制代码
sudo chown ollama:ollama ollama/ 

8、运行成功

继续查看日志

ini
复制代码
May 16 16:39:47 ek-s ollama[4183]: time=2024-05-16T16:39:47.384+08:00 level=INFO source=cpu_common.go:11 msg="CPU has AVX2"
May 16 16:39:47 ek-s ollama[4183]: time=2024-05-16T16:39:47.383+08:00 level=INFO source=gpu.go:127 msg="detected GPUs" count=1 library=/usr/lib/x86_64-li>
May 16 16:39:47 ek-s ollama[4183]: time=2024-05-16T16:39:47.125+08:00 level=INFO source=gpu.go:122 msg="Detecting GPUs"
May 16 16:39:47 ek-s ollama[4183]: time=2024-05-16T16:39:47.125+08:00 level=INFO source=payload.go:44 msg="Dynamic LLM libraries [cpu cpu_avx cpu_avx2 cu>
May 16 16:39:44 ek-s ollama[4183]: time=2024-05-16T16:39:44.222+08:00 level=INFO source=payload.go:30 msg="extracting embedded files" dir=/tmp/ollama1963>
May 16 16:39:44 ek-s ollama[4183]: time=2024-05-16T16:39:44.221+08:00 level=INFO source=routes.go:1034 msg="Listening on [::]:11434 (version 0.1.34)"
May 16 16:39:44 ek-s ollama[4183]: time=2024-05-16T16:39:44.220+08:00 level=INFO source=images.go:904 msg="total unused blobs removed: 0"
May 16 16:39:44 ek-s ollama[4183]: time=2024-05-16T16:39:44.220+08:00 level=INFO source=images.go:897 msg="total blobs: 0"

3、 接着我们需要使用 Ollama 运行我们的 大模型 Llama3:8b

1、使用 ollama 查看模型列表

复制代码
ollama list

2、下载大模型

ollama Model 库:library (ollama.com)

经检测目前比较适用的大模型为:llama3:8b

复制代码
ollama pull llama3:8b

3、运行大模型

arduino
复制代码
ollama run llama3:8b

image-20240516175118296.png

4、测试我们的大模型

image-20240516175532722.png 成功。

如何学习AI大模型 ?

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。【保证100%免费】🆓

CSDN粉丝独家福利

这份完整版的 AI 大模型学习资料已经上传CSDN,朋友们如果需要可以扫描下方二维码&点击下方CSDN官方认证链接免费领取 【保证100%免费】

读者福利: 👉👉CSDN大礼包:《最新AI大模型学习资源包》免费分享 👈👈

(👆👆👆安全链接,放心点击)

对于0基础小白入门:

如果你是零基础小白,想快速入门大模型是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。

👉1.大模型入门学习思维导图👈

要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。

对于从来没有接触过AI大模型的同学,我们帮你准备了详细的学习成长路线图&学习规划。可以说是最科学最系统的学习路线,大家跟着这个大的方向学习准没问题。(全套教程文末领取哈)
在这里插入图片描述

👉2.AGI大模型配套视频👈

很多朋友都不喜欢晦涩的文字,我也为大家准备了视频教程,每个章节都是当前板块的精华浓缩。
在这里插入图片描述

在这里插入图片描述

👉3.大模型实际应用报告合集👈

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(全套教程文末领取哈)

在这里插入图片描述

👉4.大模型实战项目&项目源码👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战项目来学习。(全套教程文末领取哈)
在这里插入图片描述

👉5.大模型经典学习电子书👈

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。(全套教程文末领取哈)
在这里插入图片描述

👉6.大模型面试题&答案👈

截至目前大模型已经超过200个,在大模型纵横的时代,不仅大模型技术越来越卷,就连大模型相关的岗位和面试也开始越来越卷了。为了让大家更容易上车大模型算法赛道,我总结了大模型常考的面试题。(全套教程文末领取哈)
在这里插入图片描述

为什么分享这些资料?

只要你是真心想学AI大模型,我这份资料就可以无偿分享给你学习,我国在这方面的相关人才比较紧缺,大模型行业确实也需要更多的有志之士加入进来,我也真心希望帮助大家学好这门技术,如果日后有什么学习上的问题,欢迎找我交流,有技术上面的问题,我是很愿意去帮助大家的!

这些资料真的有用吗?

这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

在这里插入图片描述
在这里插入图片描述

CSDN粉丝独家福利

这份完整版的 AI 大模型学习资料已经上传CSDN,朋友们如果需要可以扫描下方二维码&点击下方CSDN官方认证链接免费领取 【保证100%免费】

读者福利: 👉👉CSDN大礼包:《最新AI大模型学习资源包》免费分享 👈👈

(👆👆👆安全链接,放心点击)
Logo

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。

更多推荐