pytorch学习笔记-简单分类问题
本文主要记录分类问题的学习,以手写数字识别为例
理论
图片表示
以经典的MNIST数据集为例,里面每一张图片都是一个28*28
的灰度矩阵,矩阵中的每个值的是灰度,范围是0~1
,可以用flatten方法打平之后方便处理。
x[28,28] -> x[1,784]
```
#### 模型构建
  这里用三个线性函数的嵌套构造线性模型(第一节中只有单一的y=wx+b足矣),绿字说明了各参数的维度(主要原因是满足矩阵计算)

#### loss表示
  考虑到输出```Y```应该是一个```[0/1/.../9]```的矩阵,这里以```H3(维度是[1,d3])```为输出的话,后面```d3```也应该是一个```0~9```的数,```label```的编码这里采用```one-hot(独热码?)```
例:1 => {0,1,0,0,0,0,0,0,0,0,0}
3 => {0,0,0,1,0,0,0,0,0,0,0}
比如 H3 得到是 [0.1, 0.8 ,…0]^T
那 loss 就可以表示为 两个矩阵之差的平方和
([0.1, 0.8, …, 0]^T - [0, 1, …, 0]^T)^2
#### 非线性因子(ReLU)
  现实生活中的问题大多不是线性问题,不是简单的一个输入一个输出,如图的 ReLU 是一个典型的非线性处理,当输入小于一个阈值后全部统一忽略,我们可以在每一个线性函数上面都叠加一个ReLU函数

H1 = ReLU(XW1+B1)
H2 = ReLU(H1W1+B2)
H3 = ReLU(H2W1+B3)
#### 梯度下降
  通过求出三组,w,b的值完成预测

#### 推理
  对于一个新的图片,即一个新的X,我们通过上面得到的已知参数(w,b)的公式,最终会得到一个一列十行的矩阵,矩阵中的每一个值,代表着他是对应数字的概率,我们对于得到的矩阵```pred```用```argmax```函数可以输出其中最大值所在的索引号,从而可以得到他到底更接近哪个数字
### 实践
#### 训练过程
1. 加载数据集
``` python
batch_size = 512
# 加载数据集
train_loader = torch.utils.data.DataLoader(
torchvision.datasets.MNIST('mnist_data', train=True, download=True,
transform=torchvision.transforms.Compose([
torchvision.transforms.ToTensor(),
#正则化把0右侧的数据使之分布在0的左右
torchvision.transforms.Normalize(
(0.1307,), (0.3081,))
])),
batch_size=batch_size, shuffle=True)
test_loader = torch.utils.data.DataLoader(
torchvision.datasets.MNIST('mnist_data/', train=False, download=True,
transform=torchvision.transforms.Compose([
torchvision.transforms.ToTensor(),
torchvision.transforms.Normalize(
(0.1307,), (0.3081,))
])),
batch_size=batch_size, shuffle=False)
- 建立模型
class Net(nn.Module): def __init__(self): super(Net, self).__init__() # wx+b self.fc1 = nn.Linear(28*28, 256) self.fc2 = nn.Linear(256, 64) self.fc3 = nn.Linear(64, 10) def forward(self, x): # x: [b, 1, 28, 28] # h1 = relu(w1x+b1) x = F.relu(self.fc1(x)) # h2 = relu(h1w2+b2) x = F.relu(self.fc2(x)) # h3 = h2w3+b3 x = self.fc3(x) return x net = Net()
- 训练
# [w1, b1, w2, b2, w3, b3] optimizer = optim.SGD(net.parameters(), lr=0.01, momentum=0.9) train_loss = [] for epoch in range(3): for batch_idx, (x, y) in enumerate(train_loader): # x: [b, 1, 28, 28] # [b, 1, 28, 28] => [b, feature] x = x.view(x.size(0), 28*28) # => [b ,10] out = net(x) # [b, 10] y_onehot = one_hot(y) # loss = mse(out, y_onehot) loss = F.mse_loss(out, y_onehot) # 清零梯度 optimizer.zero_grad() # 计算梯度 loss.backward() # 更新梯度 w' = w - lr*grad optimizer.step() train_loss.append(loss.item()) # if batch_idx%10 == 0: # print(epoch, batch_idx, loss.item()) plot_curve(train_loss) # we get optimal [w1, b1, w2, b2, w3, b3]
- 测试
下面是数字识别的结果:total_correct = 0 for x,y in test_loader: x = x.view(x.size(0), 28*28) out = net(x) # out: [b, 10] => pred: [b] pred = out.argmax(dim=1) correct = pred.eq(y).sum().float().item() total_correct = correct + total_correct total_number = len(test_loader.dataset) acc = total_correct/total_number print('test_acc', acc) x, y = next(iter(test_loader)) out = net(x.view(x.size(0), 28*28)) pred = out.argmax(dim=1) plot_image(x, pred, 'test')
本博客所有文章除特别声明外,均采用 CC BY-NC-SA 4.0 许可协议。转载请注明来自 不听话的兔子君!