Pytorch分布式训练,其他GPU进程占用GPU0的原因
  B5pePHcsyPxf 2024年02月19日 99 0

问题

最近跑师兄21年的论文代码,代码里使用了Pytorch分布式训练,在单机8卡的情况下,运行代码,出现如下问题。
image
也就是说GPU(1..7)上的进程占用了GPU0,这导致GPU0占的显存太多,以至于我的batchsize不能和原论文保持一致。

解决方法

我一点一点进行debug。
首先,在数据加载部分,由于没有将local_rankworld_size传入get_cifar_iter函数,导致后续使用DALI创建pipeline时使用了默认的local_rank=0,因此会在GPU0上多出该GPU下的进程
image

其次,在使用torch.load加载模型权重时,没有设置map_location,于是会默认加载到GPU0上,下图我选择将模型权重加载到cpu。虽然,这会使训练速度变慢,但为了和论文的batchsize保持一致也不得不这样做了。-.-
image

参考文献

  1. nn.parallel.DistributedDataParallel多卡训练,第一张卡会多出进程?
【版权声明】本文内容来自摩杜云社区用户原创、第三方投稿、转载,内容版权归原作者所有。本网站的目的在于传递更多信息,不拥有版权,亦不承担相应法律责任。如果您发现本社区中有涉嫌抄袭的内容,欢迎发送邮件进行举报,并提供相关证据,一经查实,本社区将立刻删除涉嫌侵权内容,举报邮箱: cloudbbs@moduyun.com

  1. 分享:
最后一次编辑于 2024年02月19日 0

暂无评论

推荐阅读
  NnaYPU9EV93V   2024年05月08日   50   0   0 大模型
  7B6SM42ujHWs   2024年04月10日   58   0   0 大模型
  eKreP5gc7PAg   2024年04月20日   51   0   0 大模型
  zhNCThJtfE8g   2024年04月16日   104   0   0 大模型
B5pePHcsyPxf