2021
08-08
08-08
Pytorch distributed 多卡并行载入模型操作
一、Pytorchdistributed多卡并行载入模型这次来介绍下如何载入模型。目前没有找到官方的distribute载入模型的方式,所以采用如下方式。大部分情况下,我们在测试时不需要多卡并行计算。所以,我在测试时只使用单卡。fromcollectionsimportOrderedDictdevice=torch.device("cuda")model=DGCNN(args).to(device)#自己的模型state_dict=torch.load(args.model_path)#存放模型的位置new_state_dict=OrderedDict()f...
继续阅读 >