《深度学习》—— 神经网络模型对手写数字的识别
神经网络模型对手写数字的识别
import torch
from torch import nn # 导入神经网络模块
from torch.utils.data import DataLoader # 数据包管理工具,打包数据,
from torchvision import datasets # 封装了很多与图像相关的模型,数据集
from torchvision.transforms import ToTensor # 数据转换,张量,将其他类型的数据转换为tensor张量
"""
MNIST包含70,000张手写数字图像:60,000张用于训练,10,000张用于测试。
图像是灰度的,28x28像素的,并且居中的,以减少预处理和加快运行。
"""
""" 下载训练数据集 (包含训练数据+标签)"""
training_data = datasets.MNIST(
root='data',
train=True,
download=True,
transform=ToTensor() # 张量,图片是不能直接传入神经网络模型
) # 对于pytorch库能够识别的数据一般是tensor张量.
# NumPy 数组只能在CPU上运行。Tensor可以在GPU上运行,这在深度学习应用中可以显著提高计算速度。
""" 下载测试数据集(包含训练图片+标签)"""
test_data = datasets.MNIST(
root='data',
train=False,
download=True,
transform=ToTensor()
)
print(len(training_data))
""" 展示手写字图片 """
# tensor --> numpy 矩阵类型的数据
from matplotlib import pyplot as plt
figure = plt.figure()
for i in range(9):
img, label = training_data[i + 59000] # 提取第59000张图片
figure.add_subplot(3, 3, i + 1) # 图像窗口中创建多个小窗口,小窗口用于显示图片
plt.title(label)
plt.axis("off") # 关闭坐标
plt.imshow(img.squeeze(), cmap="gray")
a = img.squeeze() # img.squeeze()从张量img中去掉维度为1的(降维)
plt.show()
training_dataloader = DataLoader(training_data, batch_size=64) # 64张图片为一个包
test_dataloader = DataLoader(test_data, batch_size=64)
for X, y in test_dataloader: # X 表示打包好的每一个数据包
print(f"Shape of X [N, C, H, W]: {X.shape}")
print(f"Shape of y: {y.shape} {y.dtype}")
break
""" 判断当前设备是否支持GPU,其中mps是苹果m系列芯片的GPU """
device = "cuda" if torch.cuda.is_available() else "mps" if torch.backends.mps.is_available() else "cpu"
print(f"Using {device} device")
class NeuralNetwork(nn.Module): # 通过调用类的形式来使用神经网络,神经网络的模型->nn.module
def __init__(self):
super().__init__() # 继承的父类初始化
self.flatten = nn.Flatten() # 展开,创建一个展开对象flatten
self.hidden1 = nn.Linear(28 * 28, 256) # 第1个参数:有多少个神经元传入进来,第2个参数:有多少个数据传出去前一层神经元的个数,当前本层神经元个数
self.hidden2 = nn.Linear(256, 128) # 输出必需和标签的类别相同,输入必须是上一层的神经元个数
self.hidden3 = nn.Linear(128, 256)
self.hidden4 = nn.Linear(256, 128)
self.out = nn.Linear(128, 10)
#
def forward(self, x): # 前向传播,你得告诉它,数据的流向。是神经网络层连接起来,函数名称不能改。当你调用forward函数的时候,传入进来的图像数据
x = self.flatten(x)
x = self.hidden1(x)
x = torch.sigmoid(x) # 激活函数
x = self.hidden2(x)
x = torch.sigmoid(x)
x = self.hidden3(x)
x = torch.sigmoid(x)
x = self.hidden4(x)
x = torch.sigmoid(x)
x = self.out(x)
return x
model = NeuralNetwork().to(device) # 把刚刚创建的模型传入到gpu或cpu
print(model)
# 定义训练模型的函数
def train(dataloader, model, loss_fn, optimizer):
model.train() # 告诉模型,开始训练,模型中w进行随机化操作,已经更新w。在训练过程中,w会被修改的
# pytorch提供2种方式来切换训练和测试的模式,分别是:model.train()和 model.eval()。
# 一般用法是:在训练开始之前写上model.trian(),在测试时写上model.eval()。
batch_size_num = 1
for X, y in dataloader:
X, y = X.to(device), y.to(device) # 把训练数据集和标签传入cpu或GPU
pred = model.forward(X) # .forward可以被省略,父类中已经对次功能进行了设置。自动初始化w权值
loss = loss_fn(pred, y) # 通过交叉熵损失函数计算损失值loss
optimizer.zero_grad() # 梯度值清零
loss.backward() # 反向传播计算得到每个参数的梯度值w
optimizer.step() # 根据梯度更新网络w参数
loss_value = loss.item() # 从tensor数据中提取数据出来,tensor获取损失值
if batch_size_num % 200 == 0:
print(f"loss: {loss_value:>7f} [number:{batch_size_num}]")
batch_size_num += 1
# 定义测试模型的函数
def test(dataloader, model, loss_fn):
size = len(dataloader.dataset)
num_batches = len(dataloader)
model.eval() # 测试,w就不能再更新。
test_loss, correct = 0, 0
with torch.no_grad(): # 一个上下文管理器,关闭梯度计算。当你确认不会调用Tensor.backward()的时候
for X, y in dataloader:
X, y = X.to(device), y.to(device)
pred = model.forward(X)
test_loss += loss_fn(pred, y).item() # test loss是会自动累加每一个批次的损失值
correct += (pred.argmax(1) == y).type(torch.float).sum().item()
a = (pred.argmax(1) == y) # dim=1表示每一行中的最大值对应的索引号,dim=0表示每一列中的最大值对应的索引号
b = (pred.argmax(1) == y).type(torch.float)
test_loss /= num_batches # 衡量模型测试的好坏。
correct /= size # 平均的正确率
print(f"Test result: \n Accuracy: {(100 * correct)}%, Avg loss: {test_loss}")
loss_fn = nn.CrossEntropyLoss() # 创建交叉熵损失函数对象,因为手写字识别中一共有10个数字,输出会有10个结果
optimizer = torch.optim.Adam(model.parameters(), lr=0.01) # 创建一个优化器
# 设置训练轮数
epochs = 10
for e in range(epochs):
print(f"Epoch {e + 1}\n")
train(training_dataloader, model, loss_fn, optimizer)
print("Done!")
# 测试模型
test(test_dataloader, model, loss_fn)
- 展示的手写数字图片如下:
- 模型结构如下:
- 训练结果如下:
- 共有10轮训练
- 测试结果如下:
原文地址:https://blog.csdn.net/weixin_73504499/article/details/142370335
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!