深度学习报错:Expected more than 1 value per channel when training, got input size torch.Size([1, 256])
造成该结果的操作:修改batch_size 128 to 32
根本原因:模型中用了batchnomolization,训练中用batch训练的时候当前batch恰好只含一个sample,而由于BatchNorm操作需要多于一个数据计算平均值,因此造成该错误。
解决方法:在torch.utils.data.DataLoader类中或自己创建的继承于DataLoader的类中设置参数drop_last=True,把不够一个batch_size的数据丢弃。
DataLoader(train_set, batch_size=args.train_batch_size, num_workers=args.num_workers, shuffle=True, drop_last=True)
以此格式添加即可,已解决
参考链接:https://www.cnblogs.com/zmbreathing/p/pyTorch_BN_error.html