一:下载ollama

官网下载https://ollama.com/

二:安装

一键自动安装,且安装的是C盘

 如果C盘紧张,想装在其他盘符,在安装包目录下打开cmd命令行,

在你想安装的盘下创建一个文件夹,例如在D盘创建一个名为Ollama的文件夹。使用命令行安装:将Ollama的安装包放在你创建的文件夹里,然后打开该文件夹的cmd命令行,输入:.\OllamaSetup.exe /DIR=D:\Ollama,然后安装即可。

三:下载模型

下载之前,我们还需要微调一下Ollama的配置

在系统环境变量中,新增以下两个变量

OLLAMA_MODELS:D:\Code\Ollama\models //更改模型储存位置

OLLAMA_HOST:0.0.0.0:52000 //修改端口,默认是11434,0.0.0.0表示任意ip可访问

在Ollama官网搜索你想要的模型,我这里以qwen2.5-coder为例

在命令行输入:ollama pull qwen2.5-coder:14b

如果遇到下载过程中,网速越来越慢,堪比百毒网盘的几kb/s,只需Ctrl+C停止下载,点击⬆️方向键,再次下载即可,ollama是有断点续传的,网速再慢,反复操作即可。

四:启动LLM模型

命令行输入命令:ollama run qwen2.5-coder:14b

五:接入IDEA

插件市场搜索:proxy ai 并安装

安装完成后在settings-->tools-->proxy ai-->providers-->Ollama(Local)处进行配置链接本地Ollama,配置后保存

使用效果

Logo

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。

更多推荐