脚本宝典收集整理的这篇文章主要介绍了pytorch 记录,脚本宝典觉得挺不错的,现在分享给大家,也给大家做个参考。
use_gpu = torch.cuda.is_available()
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
PRint(device)
ssl._create_default_https_context = ssl._create_unverified_context
import torch
import torchvision
import torchvision.transforms as transforms
transform = transforms.COMpose(
[transforms.ToTensor(),
transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])
# 下载训练数据集
trainset = torchvision.datasets.CIFAR10(root='./data', train=True,
download=True, transform=transform)
# 下载测试数据集
testset = torchvision.datasets.CIFAR10(root='./data', train=False,
download=True, transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=4,
shuffle=True, num_workers=2)
testloader = torch.utils.data.DataLoader(testset, batch_size=4,
shuffle=False, num_workers=2)
classes = ('plane', 'car', 'bird', 'cat', 'deer', 'dog', 'frog', 'horse', 'ship', 'truck')
import torch.nn.functional as F
class Net(nn.Module):
def __inIT__(self):
suPEr(Net,self).__init__()
self.conv1 = nn.Conv2d(3,6,5) #输入3通道,输出6通道,卷积核5*5
self.pool = nn.Maxpool2d(2,2) #核2*2,步长为2
self.conv2 = nn.Conv2d(6,16,5)
self.fc1 = nn.Linear(16*5*5,120) #输入16*5*5的向量batch,输出120的batch
self.fc2 = nn.Linear(120,84)
self.fc3 = nn.Linear(84,10) # 最终输出10的batch
def forward(self,x):
x = self.pool(F.relu(self.conv1(x)))
x = self.pool(F.relu(self.conv2(x))) #进行两次卷积和两次池化,其中带有relu函数
x = x.view(-1,16*5*5) #变形成为适合linear的向量batch
x = F.relu(self.fc1(x))
x = F.relu(self.fc2(x))
x = self.fc3(x)
return x
net = Net()
net = net.cuda()
#设置损失函数和优化器
import torch.optim as optim
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(),lr=0.001,momentum=0.9) #其中momentum为动量参数
#criterion = criterion.cuda()
```
###4.训练
```for epoch in range(2):
running_loss = 0.0
for i,data in enumerate(trainloader,0): #enumerate挨个枚举出数据
#读取数据
inputs,labels = data
inputs = inputs.cuda()
labels = labels.cuda()
#梯度重置为0
optimizer.zero_grad()
#训练
outputs = net(inputs) #一次向前传播
loss = criterion(outputs,labels) #计算损失
loss.backward() #反向传播
optimizer.step() #优化器
running_loss += loss.item() #item()将0维张量loss转化为浮点数赋给running_loss
if i%2000 == 1999:
#输出每2000个数据训练后的loss
print('[%d,%5d] loss:%.3f'%(epoch+1,i+1,running_loss/2000))
running_loss = 0 #重置running_loss
以上是脚本宝典为你收集整理的pytorch 记录全部内容,希望文章能够帮你解决pytorch 记录所遇到的问题。
本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。