损失函数
NLLLoss = -x[class] x为输出张量 class为target 注!数据准备阶段target是一个class_index∈[0,n-1] n = 类别总数 Pytorch会自动转为One-Hot格式 CELoss同理
CELoss = softmax + log + NLLLoss
BCELoss = -[y*log(x) + (1-y)*log(1-x)]
BCEWithLogitsLoss = sigmoid + BCE
FL_loss = -[y*log(x)*α*(1-x)^γ + (1-y)*log(1-x)*(1-α)*x^γ] default α=0.25,γ=2
主要是为了解决正负样本比例严重失衡的问题,该损失函数降低了大量简单负样本在训练中所占的权重。
它是在交叉熵损失函数基础上进行的修改,添加一个α参数权衡正负样本,再添加一个γ参数平衡难易样本
QFL_loss= -[y*log(x)*α + (1-y)*log(1-x)*(1-α)]*|y-x|γ
出现原因:开启smooth_label时,label∈(0~1),但FL_loss只支持 0/1 这样的离散类别