linux系统解决huggingface下载缓存不够的问题
这种更改cache缓存文件夹位置的方式不能从根本上解决存储问题,这种方式同样会在cache缓存里下载模型,然后同时又在数据盘指定目录下载模型(上述命令指定目录是个gpt2),相当于下了两次模型,如果这个模型有50g的话,那么这个数据盘大小需要超过100g才行。如果不采用huggingface-cli download指令在终端下载模型时,就不会出现cache缓存问题,我们可以使用其他方法下载模型,
使用huggingface-cli download命令在终端下载huggingface的模型时,huggingface会自动把模型保存在下面的路径:
~\.cache\huggingface\hub
但是服务器的内存不够,所以经常因为空间问题下载暂停,比较麻烦。
提供一种亲测有效的方式。
解决方法
找一个比较大的空间(我这里是在大一点的数据盘下建立一个cache文件夹,然后在终端输入如下命令:
export HF_HOME="较大容量的地址"
到这里就结束了,然后你就可以通过下面这种方式从huggingface里面下载模型了
huggingface-cli download --resume-download gpt2 --local-dir gpt2
缺陷:这种更改cache缓存文件夹位置的方式不能从根本上解决存储问题,这种方式同样会在cache缓存里下载模型,然后同时又在数据盘指定目录下载模型(上述命令指定目录是个gpt2),相当于下了两次模型,如果这个模型有50g的话,那么这个数据盘大小需要超过100g才行。
其他解决方案:如果不采用huggingface-cli download指令在终端下载模型时,就不会出现cache缓存问题,我们可以使用其他方法下载模型,如,先将模型文件下到本地,然后在上传到服务器指定文件夹,这样就不会在cache缓存中同时有该模型文件了。
参考文章:http://t.csdnimg.cn/PD1gJ
魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。
更多推荐



所有评论(0)