深度学习单机多卡GPU 用mpirun跑分布式训练,2卡不报错正常运行,但是4卡GPU或8卡GPU报错无法解决
***************************************************解答*****************************************************从你的截图里只知道你在第三张卡(rank2)上的程序被killed了,signal 9 是linux scheduler杀死进程而非进程自己退出(用2GPU可以跑,但是4GPU或8GPU会
·
用2GPU可以跑,但是4GPU或8GPU会报下面的错误


上图分别是报错提示和运行训练的指令
****************************************************解答*****************************************************
从你的截图里只知道你在第三张卡(rank2)上的程序被killed了,signal 9 是linux scheduler杀死进程而非进程自己退出(stackoverflow 参考)。你的程序内的错误信息被隐藏了
魔乐社区(Modelers.cn) 是一个中立、公益的人工智能社区,提供人工智能工具、模型、数据的托管、展示与应用协同服务,为人工智能开发及爱好者搭建开放的学习交流平台。社区通过理事会方式运作,由全产业链共同建设、共同运营、共同享有,推动国产AI生态繁荣发展。
更多推荐
所有评论(0)