背景需求:博主希望在同一台主机上部署Dify+Ollama+Deepseek和AI绘图ComfyUI,在编写Dify文生图工作流中,Deepseek生成文本后立刻执行AI绘图。此时Ollama并未卸载Deepseek模型,内存和显存依旧有占用,这会影响AI绘图速度,所以通过HTTP请求的方式联系Ollama卸载模型

具体实现:

1.请求地址:http://Ollama地址:端口/api/generate

因为博主的Dify是在docker容器中运行,所以Ollama地址要用host.docker.internal

2.请求方式:POST

3.请求体:JSON

{"model": "deepseek-r1:8b", "keep_alive": 0}

model:目标模型名称

keep_alive:0立即卸载,-1永不卸载

Logo

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。

更多推荐