pytorch实现rnn并且对mnist进行分类

2023-04-28,,

1.RNN简介

rnn,相比很多人都已经听腻,但是真正用代码操练起来,其中还是有很多细节值得琢磨。

虽然大家都在说,我还是要强调一次,rnn实际上是处理的是序列问题,与之形成对比的是cnn,cnn不能够处理序列问题,因为它没有记忆能力,那为什么rnn能够处理序列问题以及有记忆能力呢?

首先简单介绍一下rnn以及lstm的背景,这里给出两个链接,链接1,链接2

以最简单的rnn为例,如下图

上面是rnn展开成3个单元的结构示意图,h_t是上一个时刻的输出,这个输出送到下一个时刻的输入;x_t是当前时刻的输入,h_t是当前时刻的输出,这个输出有两个用途,第一个当然还是作为当前时刻的输出,另外一个作用是作为下一个时刻的输出,所以你不难理解,为什么rnn有记忆能力,因为,下一个单元的输入是综合当前时刻的输入x_t与上一个时刻的输出h_t-1啊,所以rnn的记忆功能体现在这个地方

h_t-1与x_t经过concatenate之后经过一个权重相乘,然后加上一个偏执bias,经过一个tanh函数,就成了h_t,非常简单

公式如下

非常简单,那么问题来了

大家经常所说的是rnn展开之后像上面这一个图一样,那么不展开呢?

大概是像这样

实际上这是非常合理的,为什么呢?因为其实对于一层的rnn而言,看上面的公式,确实是只有一个w_ih,b_ih,w_hh,b_hh.记住这个是非常重要的,因为一开始的时候大家都可能会有一个误解说,为什么应该是同一个权重,为什么不是不同的权重?

我觉得,在nlp领域,假如你输入的是一个序列,就是一个句子,每个句子中的每个单词经过word2vec变换成一个向量,这个句子有长有短,而对不不同长度的句子,难不成rnn上面展开的单元的个数还是变换的?这显然是不可能的!如果这还说服不了你,那稍后看pytorch代码

刚刚还说到,关于rnn的层数的问题,这个层数很容易误解为第一个图那样展开,实际上和展开没有半毛钱关系,展开的长度随着输入的序列的长短决定,层数的定义实际上是如下这样

即是往上延伸的,输出的h_t还是会网上继续输入,t时刻的输出是h_t^',而不是h_t。

2.pytorch实现rnn

考虑到rnn的记忆特性,即rnn能够记住前面的东西,这样是否可行:即我每一时刻输入的是一个vector,这个vector对应的是图像的某一列,有多少列就对应多少时刻,那最后一个时刻输入的是最后一列,rnn最后输出的h_t实际上就是对应的哪一个类别,实际上这样是行得通的

说干就干

 # -*-coding: utf-8 -*-
import torch
import torch.nn as nn
import torchvision.datasets as dsets
import torchvision.transforms as transforms
from torch.autograd import Variable # Hyper Parameters
sequence_length = 28 # 序列长度,将图像的每一列作为一个序列
input_size = 28 # 输入数据的维度
hidden_size = 128 # 隐藏层的size
num_layers = 2 # 有多少层 num_classes = 10
batch_size = 100
num_epochs = 20
learning_rate = 0.01 # MNIST Dataset
train_dataset = dsets.MNIST(root='./data/',
train=True,
transform=transforms.ToTensor(),
download=True) test_dataset = dsets.MNIST(root='./data/',
train=False,
transform=transforms.ToTensor()) # Data Loader (Input Pipeline)
train_loader = torch.utils.data.DataLoader(dataset=train_dataset,
batch_size=batch_size,
shuffle=True) test_loader = torch.utils.data.DataLoader(dataset=test_dataset,
batch_size=batch_size,
shuffle=False) # RNN Model (Many-to-One)
class RNN(nn.Module):
def __init__(self, input_size, hidden_size, num_layers, num_classes):
super(RNN, self).__init__()
self.hidden_size = hidden_size
self.num_layers = num_layers
self.lstm = nn.LSTM(input_size, hidden_size, num_layers, batch_first=True) # batch_first=True仅仅针对输入而言
self.fc = nn.Linear(hidden_size, num_classes) def forward(self, x):
# 设置初始状态h_0与c_0的状态是初始的状态,一般设置为0,尺寸是,x.size(0)
h0 = Variable(torch.zeros(self.num_layers, x.size(0), self.hidden_size).cuda())
c0 = Variable(torch.zeros(self.num_layers, x.size(0), self.hidden_size).cuda()) # Forward propagate RNN
out, (h_n, c_n) = self.lstm(x, (h0, c0)) # 送入一个初始的x值,作为输入以及(h0, c0) # Decode hidden state of last time step
out = self.fc(out[:, -1, :]) # output也是batch_first, 实际上h_n与c_n并不是batch_first
return out rnn = RNN(input_size, hidden_size, num_layers, num_classes)
rnn.cuda() # Loss and Optimizer
criterion = nn.CrossEntropyLoss()
optimizer = torch.optim.Adam(rnn.parameters(), lr=learning_rate) # Train the Model
for epoch in range(num_epochs):
for i, (images, labels) in enumerate(train_loader):
# a = images.numpy()
images = Variable(images.view(-1, sequence_length, input_size)).cuda() # 100*1*28*28 -> 100*28*28
# b = images.data.cpu().numpy()
labels = Variable(labels).cuda() # Forward + Backward + Optimize
optimizer.zero_grad()
outputs = rnn(images)
loss = criterion(outputs, labels)
loss.backward()
optimizer.step() if (i+1) % 100 == 0:
print ('Epoch [%d/%d], Step [%d/%d], Loss: %.4f'
%(epoch+1, num_epochs, i+1, len(train_dataset)//batch_size, loss.data[0])) # Test the Model
correct = 0
total = 0
for images, labels in test_loader:
images = Variable(images.view(-1, sequence_length, input_size)).cuda()
outputs = rnn(images)
_, predicted = torch.max(outputs.data, 1)
total += labels.size(0)
correct += (predicted.cpu() == labels).sum() print('Test Accuracy of the model on the 10000 test images: %d %%' % (100 * correct / total)) # Save the Model
torch.save(rnn.state_dict(), 'rnn.pkl')

在实际上用的时候,我并没有调用rnn,而是用lstm类

# RNN Model (Many-to-One)
class RNN(nn.Module):
def __init__(self, input_size, hidden_size, num_layers, num_classes):
super(RNN, self).__init__()
self.hidden_size = hidden_size
self.num_layers = num_layers
self.lstm = nn.LSTM(input_size, hidden_size, num_layers, batch_first=True) # batch_first=True仅仅针对输入而言
self.fc = nn.Linear(hidden_size, num_classes) def forward(self, x):
# 设置初始状态h_0与c_0的状态是初始的状态,一般设置为0,尺寸是,x.size(0)
h0 = Variable(torch.zeros(self.num_layers, x.size(0), self.hidden_size).cuda())
c0 = Variable(torch.zeros(self.num_layers, x.size(0), self.hidden_size).cuda()) # Forward propagate RNN
out, (h_n, c_n) = self.lstm(x, (h0, c0)) # 送入一个初始的x值,作为输入以及(h0, c0) # Decode hidden state of last time step
out = self.fc(out[:, -1, :]) # output也是batch_first, 实际上h_n与c_n并不是batch_first
return out

实际上是定义了一个lstm,lstm输出的out最后一个,实际上也就是h_n^',这个参数送到一个全连接层,这个全连接层最后输出的是10类别

loss由softmax定义

mages = Variable(images.view(-1, sequence_length, input_size)).cuda()  # 100*1*28*28 -> 100*28*28

作者经过这样的操作能够得到batchsize×sequence×length的向量,输入到rnn中,由于作者设置了batch_first,所以第一个维度是batch,第二个维度是sequence,那么就可以把没衣服图像的每一列当做一个时刻输入到网络中的一个vector

然后反传,优化

实际上我把训练的loss画出来,发现loss振荡非常剧烈

尽管最后的精度能够达到93%左右,确实能够发现网络不稳定

pytorch实现rnn并且对mnist进行分类的相关教程结束。

《pytorch实现rnn并且对mnist进行分类.doc》

下载本文的Word格式文档,以方便收藏与打印。