用LangChain调用Ollama的时候一个小问题
来测试其是否正常,通常会出来“Ollama is running”,然后我习惯性地从Chrome把地址拷贝到VS Code,真是太奇怪了,试了几次才发现,原来不能带那个反斜杠!这个问题真是让人无语。说来让人无语,简单记录一下。安装好Ollama后,我们通常通过访问。
·
说来让人无语,简单记录一下。安装好Ollama后,我们通常通过访问http://127.0.0.1:11434来测试其是否正常,通常会出来“Ollama is running”,然后我习惯性地从Chrome把地址拷贝到VS Code,
oembed = OllamaEmbeddings(base_url="http://127.0.0.1:11434/", model="mxbai-embed-large")
结果报:
ValueError: Error raised by inference API HTTP code: 404, 404 page not found
真是太奇怪了,试了几次才发现,原来不能带那个反斜杠!这个问题真是让人无语,简单记录一下。
魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。
更多推荐



所有评论(0)