神经网络学习小记录34——利用PyTorch实现卷积神经网络

叁歲伎倆 2023-06-24 11:25 141阅读 0赞

神经网络学习小记录34——利用PyTorch实现卷积神经网络

  • 学习前言
  • PyTorch中实现卷积的重要基础函数
    • 1、nn.Conv2d:
    • 2、nn.MaxPool2d(kernel_size=2)
    • 3、nn.ReLU()
    • 4、x.view()
  • 全部代码

学习前言

只有学习才能让人快乐。
在这里插入图片描述

PyTorch中实现卷积的重要基础函数

1、nn.Conv2d:

nn.Conv2d在pytorch中用于实现卷积。

  1. nn.Conv2d(
  2. in_channels=32,
  3. out_channels=64,
  4. kernel_size=3,
  5. stride=1,
  6. padding=1,
  7. )

1、in_channels为输入通道数。
2、out_channels为输出通道数。
3、kernel_size为卷积核大小。
4、stride为步数。
5、padding为padding情况。
6、dilation表示空洞卷积情况。

2、nn.MaxPool2d(kernel_size=2)

nn.MaxPool2d在pytorch中用于实现最大池化。

具体使用方式如下:

  1. MaxPool2d(kernel_size,
  2. stride=None,
  3. padding=0,
  4. dilation=1,
  5. return_indices=False,
  6. ceil_mode=False)

1、kernel_size为池化核的大小
2、stride为步长
3、padding为填充情况

3、nn.ReLU()

nn.ReLU()用来实现Relu函数,实现非线性。

4、x.view()

x.view用于reshape特征层的形状。

全部代码

这是一个简单的CNN模型,用于预测mnist手写体。

  1. import os
  2. import numpy as np
  3. import torch
  4. import torch.nn as nn
  5. import torch.utils.data as Data
  6. import torchvision
  7. import matplotlib.pyplot as plt
  8. # 循环世代
  9. EPOCH = 20
  10. BATCH_SIZE = 50
  11. # 下载mnist数据集
  12. train_data = torchvision.datasets.MNIST(root='./mnist/',train=True,transform=torchvision.transforms.ToTensor(),download=True,)
  13. # (60000, 28, 28)
  14. print(train_data.train_data.size())
  15. # (60000)
  16. print(train_data.train_labels.size())
  17. train_loader = Data.DataLoader(dataset=train_data, batch_size=BATCH_SIZE, shuffle=True)
  18. # 测试集
  19. test_data = torchvision.datasets.MNIST(root='./mnist/', train=False)
  20. # (2000, 1, 28, 28)
  21. # 标准化
  22. test_x = torch.unsqueeze(test_data.test_data, dim=1).type(torch.FloatTensor)[:2000]/255.
  23. test_y = test_data.test_labels[:2000]
  24. # 建立pytorch神经网络
  25. class CNN(nn.Module):
  26. def __init__(self):
  27. super(CNN, self).__init__()
  28. #----------------------------#
  29. # 第一部分卷积
  30. #----------------------------#
  31. self.conv1 = nn.Sequential(
  32. nn.Conv2d(
  33. in_channels=1,
  34. out_channels=32,
  35. kernel_size=5,
  36. stride=1,
  37. padding=2,
  38. dilation=1
  39. ),
  40. nn.ReLU(),
  41. nn.MaxPool2d(kernel_size=2),
  42. )
  43. #----------------------------#
  44. # 第二部分卷积
  45. #----------------------------#
  46. self.conv2 = nn.Sequential(
  47. nn.Conv2d(
  48. in_channels=32,
  49. out_channels=64,
  50. kernel_size=3,
  51. stride=1,
  52. padding=1,
  53. dilation=1
  54. ),
  55. nn.ReLU(),
  56. nn.MaxPool2d(kernel_size=2),
  57. )
  58. #----------------------------#
  59. # 全连接+池化+全连接
  60. #----------------------------#
  61. self.ful1 = nn.Linear(64 * 7 * 7, 512)
  62. self.drop = nn.Dropout(0.5)
  63. self.ful2 = nn.Sequential(nn.Linear(512, 10),nn.Softmax())
  64. #----------------------------#
  65. # 前向传播
  66. #----------------------------#
  67. def forward(self, x):
  68. x = self.conv1(x)
  69. x = self.conv2(x)
  70. x = x.view(x.size(0), -1)
  71. x = self.ful1(x)
  72. x = self.drop(x)
  73. output = self.ful2(x)
  74. return output
  75. cnn = CNN()
  76. # 指定优化器
  77. optimizer = torch.optim.Adam(cnn.parameters(), lr=1e-3)
  78. # 指定loss函数
  79. loss_func = nn.CrossEntropyLoss()
  80. for epoch in range(EPOCH):
  81. for step, (b_x, b_y) in enumerate(train_loader):
  82. #----------------------------#
  83. # 计算loss并修正权值
  84. #----------------------------#
  85. output = cnn(b_x)
  86. loss = loss_func(output, b_y)
  87. optimizer.zero_grad()
  88. loss.backward()
  89. optimizer.step()
  90. #----------------------------#
  91. # 打印
  92. #----------------------------#
  93. if step % 50 == 0:
  94. test_output = cnn(test_x)
  95. pred_y = torch.max(test_output, 1)[1].data.numpy()
  96. accuracy = float((pred_y == test_y.data.numpy()).astype(int).sum()) / float(test_y.size(0))
  97. print('Epoch: %2d'% epoch, ', loss: %.4f' % loss.data.numpy(), ', accuracy: %.4f' % accuracy)

有不懂的朋友可以评论询问噢。

发表评论

表情:
评论列表 (有 0 条评论,141人围观)

还没有评论,来说两句吧...

相关阅读

    相关 pytorch-神经网络基础

    卷积神经网络基础 本节我们介绍卷积神经网络的基础概念,主要是卷积层和池化层,并解释填充、步幅、输入通道和输出通道的含义。 二维卷积层 本节介绍的是最常见的二维卷积

    相关 神经网络-神经网络

    卷积神经网络最基本的操作:卷积、池化、全连接 1、卷积操作 什么是卷积操作?我们先定义一个目的,让卷积神经网络去识别数字 “17” 和字母 “L”。 有三张图片,