pytorch 记录

发布时间:2022-06-08 发布网站:脚本宝典
脚本宝典收集整理的这篇文章主要介绍了pytorch 记录脚本宝典觉得挺不错的,现在分享给大家,也给大家做个参考。

好歹是把简单的图像分类弄了,用了谷歌的免费GPU

1.加载GPU

use_gpu = torch.cuda.is_available()
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
PRint(device)

2.加载数据

ssl._create_default_https_context = ssl._create_unverified_context

import torch
import torchvision
import torchvision.transforms as transforms

transform = transforms.COMpose(
    [transforms.ToTensor(),
     transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])

# 下载训练数据集
trainset = torchvision.datasets.CIFAR10(root='./data', train=True,
                                        download=True, transform=transform)
# 下载测试数据集
testset = torchvision.datasets.CIFAR10(root='./data', train=False,

                                       download=True, transform=transform)

trainloader = torch.utils.data.DataLoader(trainset, batch_size=4,
                                          shuffle=True, num_workers=2)
testloader = torch.utils.data.DataLoader(testset, batch_size=4,
                                         shuffle=False, num_workers=2)

classes = ('plane', 'car', 'bird', 'cat', 'deer', 'dog', 'frog', 'horse', 'ship', 'truck')

3.网络和损失函数

import torch.nn.functional as F

class Net(nn.Module):
    def __inIT__(self):
        suPEr(Net,self).__init__()
        self.conv1 = nn.Conv2d(3,6,5) #输入3通道,输出6通道,卷积核5*5
        self.pool  = nn.Maxpool2d(2,2) #核2*2,步长为2
        self.conv2 = nn.Conv2d(6,16,5) 
        self.fc1   = nn.Linear(16*5*5,120) #输入16*5*5的向量batch,输出120的batch
        self.fc2   = nn.Linear(120,84)
        self.fc3   = nn.Linear(84,10) # 最终输出10的batch
    
    def forward(self,x):
        x = self.pool(F.relu(self.conv1(x)))
        x = self.pool(F.relu(self.conv2(x))) #进行两次卷积和两次池化,其中带有relu函数
        x = x.view(-1,16*5*5) #变形成为适合linear的向量batch
        x = F.relu(self.fc1(x))
        x = F.relu(self.fc2(x))
        x = self.fc3(x)
        return x

net = Net()
net = net.cuda() 

#设置损失函数和优化器
import torch.optim as optim

criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(),lr=0.001,momentum=0.9) #其中momentum为动量参数

#criterion = criterion.cuda()

        ```
###4.训练
```for epoch in range(2):
    running_loss = 0.0
    for i,data in enumerate(trainloader,0): #enumerate挨个枚举出数据
        #读取数据
        inputs,labels = data
        inputs = inputs.cuda()
        labels = labels.cuda() 
        
        #梯度重置为0
        optimizer.zero_grad()
        
        #训练
        outputs = net(inputs) #一次向前传播
        loss = criterion(outputs,labels) #计算损失
        
        loss.backward() #反向传播
        optimizer.step() #优化器
        
        running_loss += loss.item() #item()将0维张量loss转化为浮点数赋给running_loss
        
        if i%2000 == 1999:
            #输出每2000个数据训练后的loss
            print('[%d,%5d] loss:%.3f'%(epoch+1,i+1,running_loss/2000))
            
            running_loss = 0  #重置running_loss

pytorch 记录

脚本宝典总结

以上是脚本宝典为你收集整理的pytorch 记录全部内容,希望文章能够帮你解决pytorch 记录所遇到的问题。

如果觉得脚本宝典网站内容还不错,欢迎将脚本宝典推荐好友。

本图文内容来源于网友网络收集整理提供,作为学习参考使用,版权属于原作者。
如您有任何意见或建议可联系处理。小编QQ:384754419,请注明来意。