文章目录


前言

今天和同事聊天,聊到多模态大模型,感觉可以作为2025年的一个新的探索方向。希望和大家一起学习,一起进步。

今天也是尝试了我能想到的最基本最快速地本地部署多模态大模型的方式,那便是使用ollama。

ollama之前咱安装过,然后现在也是直接使用就好。

模型下载

在这里插入图片描述
我们点开ollama的官网,点击这个models

在这里插入图片描述
这时,我们会发现,ollama除了常用的大语言模型之外,还可以帮助我们部署视觉模型,嵌入模型以及工具模型。

这个工具模型是啥,我还真的不知道,我们今天先玩玩这个视觉模型

在这里插入图片描述

在这里插入图片描述

发现比较新的,就是这两个。

我的显存比较小,决定试试第二个。

命令行使用:

ollama run minicpm-v

在这里插入图片描述
开始下载了,耐心等待吧。

Logo

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。

更多推荐