2021
04-25
04-25
pytorch显存一直变大的解决方案
在代码中添加以下两行可以解决:torch.backends.cudnn.enabled=Truetorch.backends.cudnn.benchmark=True补充:pytorch训练过程显存一直增加的问题之前遇到了爆显存的问题,卡了很久,试了很多方法,总算解决了。总结下自己试过的几种方法:**1.使用torch.cuda.empty_cache()在每一个训练epoch后都添加这一行代码,可以让训练从较低显存的地方开始,但并不适用爆显存的问题,随着epoch的增加,最大显存占用仍然会提示outofm...
继续阅读 >