文章目录
引言
手写数字识别是计算机视觉和深度学习领域的经典入门项目。本文将详细介绍如何使用PyTorch框架构建一个卷积神经网络(CNN)来实现MNIST手写数字识别任务。我们将从数据加载、模型构建到训练和测试,一步步解析整个过程。
1. 环境准备和数据加载
首先,我们需要导入必要的PyTorch模块:
import torch
from torch import nn
from torch.utils.data import DataLoader
from torchvision import datasets
from torchvision.transforms import ToTensor
1.1 下载MNIST数据集
MNIST数据集包含60,000个训练样本和10,000个测试样本,每个样本都是一个28x28像素的灰度手写数字图像。
# 下载训练数据集
training_data = datasets.MNIST(
root="data",
train=True,
download=True,
transform=ToTensor(),
)
# 下载测试数据集
test_data = datasets.MNIST(
root="data",
train=False,
download=True,
transform=ToTensor(),
)
1.2 数据可视化
我们可以使用matplotlib库来查看数据集中的一些样本:
from matplotlib import pyplot as plt
figure = plt.figure()
for i in range(9):
img, label = training_data[i+59000] # 提取后几张图片
figure.add_subplot(3,3,i+1)
plt.title(label)
plt.axis("off")
plt.imshow(img.squeeze(), cmap="gray")
plt.show()
2. 数据预处理
为了高效训练模型,我们需要使用DataLoader将数据集分批次加载:
train_dataloader = DataLoader(training_data, batch_size=64)
test_dataloader = DataLoader(test_data, batch_size=64)
3. 设备配置
PyTorch支持在CPU、NVIDIA GPU和苹果M系列芯片上运行,我们可以自动检测最佳可用设备:
device = "cuda" if torch.cuda.is_available() else "mps" if torch.backends.mps.is_available() else "cpu"
print(f"Using {device} device")
4. 构建卷积神经网络模型
我们定义一个CNN类来实现手写数字识别:
class CNN(nn.Module):
def __init__(self):
super(CNN, self).__init__()
self.conv1 = nn.Sequential(
nn.Conv2d(1, 8, 3, 1, 1), # (8,28,28)
nn.ReLU(),
nn.MaxPool2d(2), # (8,14,14)
)
self.conv2 = nn.Sequential(
nn.Conv2d(8, 16, 3, 1, 1), # (16,14,14)
nn.ReLU(),
nn.MaxPool2d(2), # (16,7,7)
)
self.out = nn.Linear(16*7*7, 10)
def forward(self, x):
x = self.conv1(x)
x = self.conv2(x)
x = x.view(x.size(0), -1) # flatten操作
output = self.out(x)
return output
model = CNN().to(device)
这个CNN模型包含:
- 两个卷积层,每个卷积层后接ReLU激活函数和最大池化层
- 一个全连接输出层
- 输入大小:(1,28,28)
- 输出大小:10(对应0-9的数字类别)
5. 训练和测试函数
5.1 训练函数
def train(dataloader, model, loss_fn, optimizer):
model.train()
batch_size_num = 1
for X, y in dataloader:
X, y = X.to(device), y.to(device)
pred = model(X)
loss = loss_fn(pred, y)
optimizer.zero_grad()
loss.backward()
optimizer.step()
if batch_size_num % 100 == 0:
print(f"loss: {loss.item():>7f} [number:{batch_size_num}]")
batch_size_num += 1
5.2 测试函数
def Test(dataloader, model, loss_fn):
size = len(dataloader.dataset)
num_batches = len(dataloader)
model.eval()
test_loss, correct = 0, 0
with torch.no_grad():
for X, y in dataloader:
X, y = X.to(device), y.to(device)
pred = model(X)
test_loss += loss_fn(pred, y).item()
correct += (pred.argmax(1) == y).type(torch.float).sum().item()
test_loss /= num_batches
correct /= size
print(f"Test result: \n Accuracy:{(100*correct)}%, Avg loss:{test_loss}")
6. 模型训练和评估
6.1 初始化损失函数和优化器
loss_fn = nn.CrossEntropyLoss()
optimizer = torch.optim.Adam(model.parameters(), lr=0.01)
6.2 训练过程
# 初始训练和测试
train(train_dataloader, model, loss_fn, optimizer)
Test(test_dataloader, model, loss_fn)
# 多轮训练
epochs = 10
for t in range(epochs):
print(f"epoch {t+1}\n---------------")
train(train_dataloader, model, loss_fn, optimizer)
print("Done!")
# 最终测试
Test(test_dataloader, model, loss_fn)
7. 关键点解析
数据转换:使用
ToTensor()
将图像数据转换为PyTorch张量,并自动归一化到[0,1]范围。批处理:DataLoader的
batch_size
参数控制每次训练使用的样本数量,影响内存使用和训练速度。模型结构:
- 卷积层提取空间特征
- ReLU激活函数引入非线性
- 最大池化层降低特征图尺寸
- 全连接层输出分类结果
训练模式切换:
model.train()
和model.eval()
分别用于训练和测试阶段,影响某些层(如Dropout和BatchNorm)的行为。优化过程:Adam优化器结合了动量法和自适应学习率的优点,通常能获得较好的训练效果。
8. 完整代码
import torch
from torch import nn #导入神经网络模块
from torch.utils.data import DataLoader #数据包管理工具,打包数据
from torchvision import datasets #封装了很多与图像相关的模型,数据集
from torchvision.transforms import ToTensor #数据转换,张量,将其他类型的数据转换为tensor张量,numpy array
'''下载训练数据集(包含训练图片+标签)'''
training_data = datasets.MNIST( #跳转到函数的内部源代码,pycharm按下ctrl + 鼠标点击
root="data", #表示下载的手写数字 到哪个路径。60000
train=True, #读取下载后的数据中的训练集
download=True, #如果你之前已经下载过了,就不用下载
transform=ToTensor(), #张量,图片是不能直接传入神经网络模型
) #对于pytorch库能够识别的数据一般是tensor张量
'''下载测试数据集(包含训练图片+标签)'''
test_data = datasets.MNIST( #跳转到函数的内部源代码,pycharm按下ctrl + 鼠标点击
root="data", #表示下载的手写数字 到哪个路径。60000
train=False, #读取下载后的数据中的训练集
download=True, #如果你之前已经下载过了,就不用下载
transform=ToTensor(), #Tensor是在深度学习中提出并广泛应用的数据类型
) #Numpy数组只能在CPU上运行。Tensor可以在GPU上运行。这在深度学习应用中可以显著提高计算速度。
print(len(training_data))
'''展示手写数字图片,把训练集中的59000张图片展示'''
from matplotlib import pyplot as plt
figure = plt.figure()
for i in range(9):
img,label = training_data[i+59000] #提取第59000张图片
figure.add_subplot(3,3,i+1) #图像窗口中创建多个小窗口,小窗口用于显示图片
plt.title(label)
plt.axis("off") #plt.show(I) 显示矢量
plt.imshow(img.squeeze(),cmap="gray") #plt.imshow()将Numpy数组data中的数据显示为图像,并在图形窗口中显示
a = img.squeeze() #img.squeeze()从张量img中去掉维度为1的,如果该维度的大小不为1,则张量不会改变
plt.show()
'''创建数据DataLoader(数据加载器)'''
# batch_size:将数据集分为多份,每一份为batch_size个数据
# 优点:可以减少内存的使用,提高训练速度
train_dataloader = DataLoader(training_data,batch_size=64)
test_dataloader = DataLoader(test_data,batch_size=64)
'''判断当前设备是否支持GPU,其中mps是苹果m系列芯片的GPU'''
device = "cuda" if torch.cuda.is_available() else "mps" if torch.backends.mps.is_available() else "cpu"
print(f"Using {device} device") #字符串的格式化,CUDA驱动软件的功能:pytorch能够去执行cuda的命令
# 神经网络的模型也需要传入到GPU,1个batch_size的数据集也需要传入到GPU,才可以进行训练
''' 定义神经网络 类的继承这种方式'''
class CNN(nn.Module): #通过调用类的形式来使用神经网络,神经网络的模型,nn.mdoule
def __init__(self): #输入大小:(1,28,28)
super(CNN,self).__init__() #初始化父类
self.conv1 = nn.Sequential( #将多个层组合成一起,创建了一个容器,将多个网络组合在一起
nn.Conv2d( # 2d一般用于图像,3d用于视频数据(多一个时间维度),1d一般用于结构化的序列数据
in_channels=1, # 图像通道个数,1表示灰度图(确定了卷积核 组中的个数)
out_channels=8, # 要得到多少个特征图,卷积核的个数
kernel_size=3, # 卷积核大小 3×3
stride=1, # 步长
padding=1, # 一般希望卷积核处理后的结果大小与处理前的数据大小相同,效果会比较好
), # 输出的特征图为(8,28,28)
nn.ReLU(), # Relu层,不会改变特征图的大小
nn.MaxPool2d(kernel_size=2), # 进行池化操作(2×2操作),输出结果为(8,14,14)
)
self.conv2 = nn.Sequential(
nn.Conv2d(8,16,3,1,1), #输出(16,14,14)
nn.ReLU(), #Relu层 (16,14,14)
nn.MaxPool2d(kernel_size=2), #池化层,输出结果为(16,7,7)
)
self.out = nn.Linear(16*7*7,10) # 全连接层得到的结果
def forward(self,x): #前向传播,你得告诉它 数据的流向 是神经网络层连接起来,函数名称不能改
x = self.conv1(x)
x = self.conv2(x)
x = x.view(x.size(0),-1) # flatten操作,结果为:(batch_size,64 * 7 * 7)
output = self.out(x)
return output
model = CNN().to(device) #把刚刚创建的模型传入到GPU
print(model)
def train(dataloader,model,loss_fn,optimizer):
model.train() #告诉模型,我要开始训练,模型中w进行随机化操作,已经更新w,在训练过程中,w会被修改的
# pytorch提供2种方式来切换训练和测试的模式,分别是:model.train() 和 mdoel.eval()
# 一般用法是:在训练开始之前写上model.train(),在测试时写上model.eval()
batch_size_num = 1
for X,y in dataloader: #其中batch为每一个数据的编号
X,y = X.to(device),y.to(device) #把训练数据集和标签传入cpu或GPU
pred = model.forward(X) # .forward可以被省略,父类种已经对此功能进行了设置
loss = loss_fn(pred,y) # 通过交叉熵损失函数计算损失值loss
# Backpropagation 进来一个batch的数据,计算一次梯度,更新一次网络
optimizer.zero_grad() # 梯度值清零
loss.backward() # 反向传播计算得到每个参数的梯度值w
optimizer.step() # 根据梯度更新网络w参数
loss_value = loss.item() # 从tensor数据种提取数据出来,tensor获取损失值
if batch_size_num %100 ==0:
print(f"loss: {loss_value:>7f} [number:{batch_size_num}]")
batch_size_num += 1
def Test(dataloader,model,loss_fn):
size = len(dataloader.dataset) #10000
num_batches = len(dataloader) # 打包的数量
model.eval() #测试,w就不能再更新
test_loss,correct =0,0
with torch.no_grad(): #一个上下文管理器,关闭梯度计算。当你确认不会调用Tensor.backward()的时候
for X,y in dataloader:
X,y = X.to(device),y.to(device)
pred = model.forward(X)
test_loss += loss_fn(pred,y).item() #test_loss是会自动累加每一个批次的损失值
correct += (pred.argmax(1) == y).type(torch.float).sum().item()
a = (pred.argmax(1) == y) #dim=1表示每一行中的最大值对应的索引号,dim=0表示每一列中的最大值对应的索引号
b = (pred.argmax(1) == y).type(torch.float)
test_loss /= num_batches #能来衡量模型测试的好坏
correct /= size #平均的正确率
print(f"Test result: \n Accuracy:{(100*correct)}%, Avg loss:{test_loss}")
loss_fn = nn.CrossEntropyLoss() #创建交叉熵损失函数对象,因为手写字识别一共有十种数字,输出会有10个结果
#
optimizer = torch.optim.Adam(model.parameters(),lr=0.01) #创建一个优化器,SGD为随机梯度下降算法
# # params:要训练的参数,一般我们传入的都是model.parameters()
# # lr:learning_rate学习率,也就是步长
#
# # loss表示模型训练后的输出结果与样本标签的差距。如果差距越小,就表示模型训练越好,越逼近真实的模型
train(train_dataloader,model,loss_fn,optimizer) #训练1次完整的数据。多轮训练
Test(test_dataloader,model,loss_fn)
epochs = 10
for t in range(epochs):
print(f"epoch {t+1}\n---------------")
train(train_dataloader,model,loss_fn,optimizer)
print("Done!")
Test(test_dataloader,model,loss_fn)
9. 总结
通过本文,我们学习了如何使用PyTorch实现一个完整的手写数字识别项目。从数据加载、模型构建到训练和评估,每个步骤都展示了PyTorch框架的简洁和强大。这个简单的CNN模型在MNIST数据集上可以达到很高的准确率,为进一步学习更复杂的计算机视觉任务打下了良好基础。
未来可以尝试:
- 调整网络结构(增加层数、改变通道数)
- 尝试不同的优化器和学习率
- 添加数据增强技术
- 在更复杂的数据集上应用类似方法
希望这篇教程能帮助你入门PyTorch和计算机视觉领域!