2020
12-10
12-10
PyTorch中clone()、detach()及相关扩展详解
clone()与detach()对比Torch为了提高速度,向量或是矩阵的赋值是指向同一内存的,这不同于Matlab。如果需要保存旧的tensor即需要开辟新的存储地址而不是引用,可以用clone()进行深拷贝,首先我们来打印出来clone()操作后的数据类型定义变化:(1).简单打印类型importtorcha=torch.tensor(1.0,requires_grad=True)b=a.clone()c=a.detach()a.data*=3b+=1print(a)#tensor(3.,requires_grad=True)print(b)print(...
继续阅读 >