deepseek本地部署,使用python交互运行
在Github中我们看到这样的图片,模型参数等都可以通过HuggingFace下载,,参数量越大,对显存的要求更高。
·
deepseek Github 地址:https://github.com/deepseek-ai/DeepSeek-R1
在Github中我们看到这样的图片,模型参数等都可以通过HuggingFace下载,DeepSeek-R1-Distill-Qwen-参数量,参数量越大,对显存的要求更高

我们以参数量最小的这个蒸馏后的模型为例,点击进入:https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B
部署模型
直接运行:
git clone https://huggingface.co/deepseek-ai/DeepSeek-R1-Distill-Qwen-1.5B
如果显示没有网络,可以点开file,手动下载下面的五个文件:
把这几个文件都放在同一个目录下,比如是../app/deepseek_r1_little,然后运行代码:
from transformers import AutoModelForCausalLM, AutoTokenizer, pipeline
mode_name = "../app/deepseek_r1_little"
model = AutoModelForCausalLM.from_pretrained(mode_name)
tokenizer = AutoTokenizer.from_pretrained(mode_name)
query = pipeline("translation_zh_to_en", model=model, tokenizer=tokenizer)
translate_result = query('解释一下川菜的制作工艺', max_length=400)
print(translate_result)
就可以得到如下结果:
魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。
更多推荐
所有评论(0)