目前只会先把test_set放到data_loader里面,让batch-size等于len(test_set)。这样一次就可全放入。
但是也没有更简洁的写法?
data_loader=torch.utils.data.DataLoader(test_set,batch_size=len(test_set))
for x,labels in data_loader:
preds=global_net(x)
num=GetCorrectNum(preds,labels)
与恶龙缠斗过久,自身亦成为恶龙;凝视深渊过久,深渊将回以凝视…