Pycharm读取的文件数据集过大,浪费时间怎么办
用 python 做开发的时候,大部分人都喜欢用Pycharm ,而深度学习在训练模型的时候往往需要的数据集往往很大,从而导致Pycharm 在读取的时候会浪费很多时间,时间上他读取的这些数据集在代码中也不会有所体现,那么问题来了,这么多的数据 Pycharm 逐个读取很浪费时间的,下面是总结出的两种解决办法。解决办法一:将数据集所在文件夹设置为excluded。右键点击数据集所在文件夹...
·
用 python 做开发的时候,大部分人都喜欢用 Pycharm ,而深度学习在训练模型的时候往往需要的数据集往往很大,从而导致Pycharm 在读取的时候会浪费很多时间,时间上他读取的这些数据集在代码中也不会有所体现,那么问题来了,这么多的数据 Pycharm 逐个读取很浪费时间的,下面是总结出的两种解决办法。
解决办法一:将数据集所在文件夹设置为excluded。
右键点击数据集所在文件夹 → make directory as → Excluded 。
解决办法二:把这些数据集拿走放在非项目目录下,这样打开项目时就解决很多时间,用的时候只需要找到正确的数据路径

魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。
更多推荐
所有评论(0)