PyTorchでMNISTを試します。
PyTorchのインストール
こちらで環境に合わせたインストールのコマンドを取得できます。
conda install pytorch torchvision cudatoolkit=10.2 -c pytorch
MNISTのサンプル
1つの画像チャネルを入力し、10個のラベル(0から9まで)を出力するモデルを定義する。
MNISTのデータセットの詳細はこちらから。
手書きの数字(0-9)のトレーニングセット(6万)とテストセット(1万)、サイズは正規化され固定サイズ(28*28px)の画像で中央に配置されている。
以下のように学習、テスト用に画像とラベルが別々で準備されています。
train-images-idx3-ubyte.gz: training set images (9912422 bytes)
train-labels-idx1-ubyte.gz: training set labels (28881 bytes)
t10k-images-idx3-ubyte.gz: test set images (1648877 bytes)
t10k-labels-idx1-ubyte.gz: test set labels (4542 bytes)
サンプルコード
import torch
import torch.nn as nn
import torch.nn.functional as F
import torch.optim as optim
from torchvision import datasets, transforms
from torch.optim.lr_scheduler import StepLR
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
# 畳み込み層(1層目, 2層目)
# in_channels : 入力チャンネル
# out_channels : 特徴量を出力
# kernel_size : カーネルサイズ(以下では3x3)
self.conv1 = nn.Conv2d(in_channels=1, out_channels=32, kernel_size=3)
self.conv2 = nn.Conv2d(in_channels=32, out_channels=64, kernel_size=3)
# ドロップアウト層(1層目, 2層目)
# 隣接するピクセルが入力確率ですべて0か、すべてアクティブになるように設計
# nn.Dropout2d()は、過学習を抑えるのに使用
# p : 要素が0である確率
self.dropout1 = nn.Dropout2d(p=0.25)
self.dropout2 = nn.Dropout2d(p=0.5)
# 全結合層(1層目, 2層目)
# in_features : 入力サンプルのサイズ
# out_features : 出力サンプルのサイズ
self.fc1 = nn.Linear(in_features=9216, out_features=128)
self.fc2 = nn.Linear(in_features=128, out_features=10)
'''
# 順伝播
構成する要素を整理
# ReLU関数
* 活性化関数 入力が0以下の時0、1より大きい時そのまま出力
# Pooling層
* Convolutoin層の後に適用されることが多い
* より扱いやすくするために入力データの情報を圧縮しダウンサンプルする
* max poolingは、小領域に対し最大の値を選択する操作
# flattenでは多重配列の指定した深さ以下を一つの配列の要素としてまとめる
# log_softmax()はソフトマックスと対数を適用する
* Softmaxは、n次元の入力テンソルに対して適用され、
n次元の出力テンソルの要素が[0,1]の範囲内で、和が1になるように再スケーリングする
'''
def forward(self, x):
# [batch_size, channels, height, width]
# torch.Size([64, 1, 28, 28])
x = self.conv1(x) # torch.Size([64, 32, 26, 26])
x = F.relu(x) # torch.Size([64, 32, 26, 26])
x = self.conv2(x) # torch.Size([64, 64, 24, 24])
x = F.relu(x) # torch.Size([64, 64, 24, 24])
x = F.max_pool2d(x, 2) # torch.Size([64, 64, 12, 12])
x = self.dropout1(x) # torch.Size([64, 64, 12, 12])
x = torch.flatten(x, 1) # torch.Size([64, 9216]) 64 * 12 * 12
x = self.fc1(x) # torch.Size([64, 128])
x = F.relu(x) # torch.Size([64, 128])
x = self.dropout2(x) # torch.Size([64, 128])
x = self.fc2(x) # torch.Size([64, 10])
output = F.log_softmax(x, dim=1) # torch.Size([64, 10])
return output
def train(model, device, train_loader, optimizer):
model.train()
for _, (data, target) in enumerate(train_loader):
data, target = data.to(device), target.to(device)
optimizer.zero_grad()
output = model(data)
loss = F.nll_loss(output, target)
loss.backward()
optimizer.step()
def test(model, device, test_loader, epoch):
model.eval()
test_loss = 0
correct = 0
with torch.no_grad():
for data, target in test_loader:
data, target = data.to(device), target.to(device)
output = model(data)
test_loss += F.nll_loss(output, target, reduction='sum').item()
pred = output.argmax(dim=1, keepdim=True)
correct += pred.eq(target.view_as(pred)).sum().item()
test_loss /= len(test_loader.dataset)
print('\nepoch:{}, Test set: Average loss: {:.4f}, Accuracy: {}/{} ({:.0f}%)\n'.format(
epoch, test_loss, correct, len(test_loader.dataset),
100. * correct / len(test_loader.dataset)))
if __name__ == '__main__':
# 初期化
use_cuda = torch.cuda.is_available()
torch.manual_seed(1)
device = torch.device("cuda" if use_cuda else "cpu")
kwargs = {'batch_size': 64}
if use_cuda:
kwargs.update({'num_workers': 1, 'pin_memory': True, 'shuffle': True})
transform = transforms.Compose([
transforms.ToTensor(),
transforms.Normalize((0.1307,), (0.3081,))
])
# データの準備、ダウンロードと読み込み
dataset1 = datasets.MNIST('./data', train=True,
download=True, transform=transform)
dataset2 = datasets.MNIST('./data', train=False, transform=transform)
train_loader = torch.utils.data.DataLoader(dataset1, **kwargs)
test_loader = torch.utils.data.DataLoader(dataset2, **kwargs)
# モデルの構築
model = Net().to(device)
optimizer = optim.Adadelta(model.parameters(), lr=1.0)
scheduler = StepLR(optimizer, step_size=1, gamma=0.7)
# モデルの学習
for epoch in range(1, 15):
train(model, device, train_loader, optimizer)
test(model, device, test_loader, epoch)
scheduler.step()
# モデルの保存
torch.save(model.state_dict(), "mnist_cnn.pt")