2021
07-01
07-01
基于BCEWithLogitsLoss样本不均衡的处理方案
最近在做deepfake检测任务(可以将其视为二分类问题,label为1和0),遇到了正负样本不均衡的问题,正样本数目是负样本的5倍,这样会导致FP率较高。尝试将正样本的loss权重增高,看BCEWithLogitsLoss的源码Examples::>>>target=torch.ones([10,64],dtype=torch.float32)#64classes,batchsize=10>>>output=torch.full([10,64],0.999)#Aprediction(logit)>>>pos_weight=torch.ones([64])#...
继续阅读 >