2021
07-26
07-26
聊聊pytorch中Optimizer与optimizer.step()的用法
当我们想指定每一层的学习率时:optim.SGD([{'params':model.base.parameters()},{'params':model.classifier.parameters(),'lr':1e-3}],lr=1e-2,momentum=0.9)这意味着model.base的参数将会使用1e-2的学习率,model.classifier的参数将会使用1e-3的学习率,并且0.9的momentum将会被用于所有的参数。进行单次优化所有的optimizer都实现了step()方法,这个方法会更...
继续阅读 >