11-09 周四 CNN 卷积神经网络基础知识

11-09 周四 CNN 卷积神经网络
时间版本修改人描述
2023年11月9日09:38:12V0.1宋全恒新建文档

简介

 学习一下CNN,卷积神经网络。使用的视频课程。视觉相关的任务:

  • 人脸识别

 卷积网络与传统网络的区别:

<img alt=image-20231109094400591 src=https://img-home.csdnimg.cn/images/20230724024159.png?origin_url=https%3A%2F%2Fcdn.jsdelivr.net%2Fgh%2Fyanchenmochen%2Fimgs%2Fimgsimage-20231109094400591.png&pos_id=img-Z35hmB60-1699522025179)>

<img alt=image-20231109094414779 src=https://img-home.csdnimg.cn/images/20230724024159.png?origin_url=https%3A%2F%2Fcdn.jsdelivr.net%2Fgh%2Fyanchenmochen%2Fimgs%2Fimgsimage-20231109094414779.png&pos_id=img-08hzm0rf-1699522028665)>

卷积神经网络是一个三维的数据,是h*w*c

整体架构

<img alt=image-20231109094649673 src=https://img-home.csdnimg.cn/images/20230724024159.png?origin_url=https%3A%2F%2Fcdn.jsdelivr.net%2Fgh%2Fyanchenmochen%2Fimgs%2Fimgsimage-20231109094649673.png&pos_id=img-AGVXtOFG-1699522031824)>

  • 输入层
  • 卷积层
  • 池化层
  • 全连接层

卷积层

调度卷积核是5*5*3,也是一个立方体的。

 卷积神经网络也是使用一组权重参数进行加权求和得出的。

<img alt=image-20231109094831385 src=https://img-home.csdnimg.cn/images/20230724024159.png?origin_url=https%3A%2F%2Fcdn.jsdelivr.net%2Fgh%2Fyanchenmochen%2Fimgs%2Fimgsimage-20231109094831385.png&pos_id=img-pBCi31QD-1699522034969)>

注: 上图仅演示了一个通道,图像是3通道。

 相当于权重参数矩阵为:

<img alt=image-20231109095218835 src=https://img-home.csdnimg.cn/images/20230724024159.png?origin_url=https%3A%2F%2Fcdn.jsdelivr.net%2Fgh%2Fyanchenmochen%2Fimgs%2Fimgsimage-20231109095218835.png&pos_id=img-ZZahJ8Qu-1699522038141)>

 卷积神经网络的目的也是找到一组最佳的权重参数。

注: 卷积核的第三个维度一定要一样才行。卷积采用内积实现。Filter的尺寸一般为3, 5,7。 在进行卷积核的时候与卷积核的第三个维度数量相等。

<img alt=image-20231109105238890 src=https://img-home.csdnimg.cn/images/20230724024159.png?origin_url=https%3A%2F%2Fcdn.jsdelivr.net%2Fgh%2Fyanchenmochen%2Fimgs%2Fimgsimage-20231109105238890.png&pos_id=img-41nSowP4-1699522038975)>

 5x5x3代表一个卷积核,该卷积核的深度为3,与输入的深度相同。得到一个特征图,深度与输入图相同。卷积核可以有多个,则可以得到多个特征图。即Feature W0, Feature W1, … 经过多个卷积核得到多个特征图feture picture。

 如下图所示:

image-20231109105404933

 上图经过卷积层得到了28 * 28 * 6个特征图。

将经过卷积核卷积之后的图堆叠在一起,得到了特征图堆。并且,卷积应该经过多次,依次得到Low-level Feature, Mid-Level Feature, High-Level Feature。也就是说,一次卷积是不够的。

image-20231109110748134

 上图说明卷积核5 * 5 * 3得到的是一个值,一个立方体得到一个值。也就是说,一个图如果一个卷积核扫描完全部得到的是一个28 * 28 * 1的图。使用6个卷积核,则得到的卷积图是28 * 28 * 6.

 第二卷积是10个 5x5x6得到就是24 * 24 * 10。

卷积核涉及参数

image-20231109111654745
步长

步长为1,得到5 * 5, 而步长为2, 得到3 *3 。 相当于步长越小,得到的特征较多,越丰富。一般视觉任务使用的步长为1,但相应的计算量较大,文本类任务,也有使用步长为2.

image-20231109111744195
卷积核尺寸

卷积核尺寸越小,越细粒度。 一般是3 * 3。

边缘填充

+pad,边缘填充属性。

越往边界的点,被利用的次数越少。下图中原始输入是5 * 5,通过边缘填充在边缘上变成了7 * 7. 又不希望添加的值影响计算。所以一般使用zero padding。

image-20231109112224568
卷积计算公式
image-20231109113033603

 对于下面的案例,可以得到输出的尺寸:

image-20231109113251254

在听这个课程的时候,学习了卷积核的作用。卷积核的深度与输入是相同的,因此,卷积核是一个立方体。但是得到的结果确实一个平面。因为一个输入图像区域只得到了一个值

 具体可以参见 3D

 2D卷积可以参见 2D卷积

卷积参数共享

卷积参数共享一个巨大的好处就是参数共享,同样的一组参数对图像中每个小区域进行处理。相对于传统的神经网络,参数降低了非常多。

image-20231109134400604

10个 5 * 5 * 3卷积核,共75 * 10 =750个卷积参数 再加上10个偏置项共760个参数。

池化层

卷积层的特征点太多,会导致计算量过大。而且有些特征对于任务并不重要。因此可以通过池化进行瘦身。降采样 downsample。

image-20231109134807557

 降采样的方式有最大值采样,平均值采样。 降采样也有区域和步长。2 * 2 并且步长为2.池化层不涉及矩阵操作,而是仅仅筛选动作。

  • max pooling 最好的特征。
  • 平均值池化 average pooling 用的比较少。

任务

 如下图,卷积层要经过relu, 非线性变换。卷积层和relu是一组。经过卷积组,池化,然后最后一个全连接FC进行分类。

 每个卷积组:

  • 卷积
  • Relu

 在卷积层最后进行全连接时,需要将特征图进行拉长操作,将图拉成一个特征向量。最后与分类数量个神经元进行全连接。

 一层神经网络: 带参数计算。relu是没有参数计算的。即激活没有参数。即POOL也没有参数计算的。如下图一共是7层神经网络。

image-20231109135323230

 特征图变化如下:

image-20231109135810731

 上图中转换即拉伸成向量。

Alexnet-2012

 227 * 227 * 3

image-20231109135941294

VGG-经典网络-2014

 VGG filter均为3 * 3,卷积核比较小,网络层数为16。在池化后,通过增加卷积次数,即增加特征图的数量来弥补池化的损失。但Alexnet训练8小时,VGG可能需要3天才能训练完成。

image-20231109140119211

 VGG 在实验室 16层的网络,比30层的时候效果好,因为深度学习,越深越好,但实验结果令人失望,深度学习进入低谷。

Resnet残差网络-2015

 何凯明的工作,将增加层数中具有促进效果的层数保留,网络训练的结果一定不会比之前差。

image-20231109140556245

 相当于残差网络拯救了深度学习神经网络。Resnet更加经典,更主流。

image-20231109141059014

 下图中橙色为Resnet,误差更小。

image-20231109141243759
感受野

 感受野有什么作用:希望感受野越来越大。3个3 * 3 得到的感受野为7 * 7, 那么与直接使用7 * 7的卷积核进行卷积需要的区别。

image-20231109141341031

 堆叠小的卷积核需要的参数越少,训练更快。而且小卷积核由于经过的relu次数多,非线性特征保存的更好。

image-20231109141930649

项目实战

构造神经网络

 conv + relu 是一个组合。

image-20231109142448589
  • in_channels : 通道数。

  • out_channels: 16,使用16个特征图。

  • kernel_size=5; 卷积核尺寸5 * 5

  • stride = 1; 步长。

  • padding=2 ; 边缘填充。

  • 前向传播得到预测结果

image-20231109143420839

训练

 使用pytorch进行训练。

image-20231109143610085

Vision模块

 TorchVision有许多的数据集。

  • 数据预处理

    • dataset数据集
  • 网络模块设置

    分类任务

    semantic segmentation

    object detection, instance segmentation and Person Keypoint Detection

    Video classfication

    • 甚至可以拿到别人的预训练模型
image-20231109144332156
  • 网络模型保存和测试
    • transforms
      • PIL Image

任务

任务介绍

 flowers 一共102种分类。

 要把数据和标签读进来。ImageFolder工具。

  • 数据预处理
    • DataLoader模块直接读取batch数据
  • 网络模块设置
    • 迁移学习
    • 需要把head层改一改 256 * 256 , 224 * 224
    • 训练时可以全部重新训练,也可以只训练咱们任务的层,本质目标是一致的。
  • 网络模型保存与测试

数据增强Data Augmentation

 让数据量更多。

 数据不够时,这样做。

 如何更好的利用数据,倾斜,水平和垂直翻转,旋转,放大和缩小,即得到一个新的数据。

image-20231109145738260

一般,网络的输入大小是固定的,因此,需要resize成预期大小。

 下面代码中CenterCrop(224)中心裁剪。

 RandomhorizontalFlip(p=0.5)概率值,是随机翻转的概率。

 亮度,对比度,饱和度 色相。

 transforms.Normalize() 即要进行标准化,参数1为均值, 参数2为标准差

 具体的样例代码:

image-20231109150211101

训练集做了标准化,则测试集也要做相同的标准化。

数据加载

image-20231109151656003

读取标签对应的名字

image-20231109154444863

展示下数据

image-20231109154714475 image-20231109154834989

迁移学习

image-20231109155033175

迁移学习的目标是用别人训练好的参数来执行任务。尽可能差异比较少一些。

 那么迁移学习,学那个部分呢:

  • A: 使用卷积层的权重参数进行初始化。
  • B: 将人家训练好的参数冻住。对全连接层进行重新定义。
    • 数据量越小,冻住的参数越多。不到10000.
    • 数据量10000多,两万。挑出来一些。

迁移学习,学习的非常快。迁移学习拿过来的模型都是经过大量实验的结果,经典网络结构,得到的结果更快也更好。如VGG, ResNet。

模型加载

 需要指定模型名称

image-20231109160756278

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
image-20231109160950304

需要修改最后全连接层,为当前用户的任务分类数目。

 加载模型,并使用预训练模型。

~/.cache/checkpoints/resnet152-b121ed2d.pth
model_ft = models.resnet152(pretrained=use_pretrained)
set_parameter_requires_grad(model_ft, feature_extract)
num_ftrs=model_ft.fc.in_features
model_ft.fc = nn.Sequential(nn.Linear(num_ftrs,102), nn.LogSoftmax(dim=1))
input_size= 224
image-20231109161238856

设置那些层需要训练

 如下的参数中:

  • model_name 指定了要使用的模型
  • 102 指定了目标分类数
  • feature_extract: 是否要冻住某些模型
  • use_pretrained: 是否要使用预训练模型。
image-20231109162034134

 显示那些参数需要重新开始训练。

image-20231109162256882

优化器设置

使用了学习率的衰减函数。效果会更稳定一些。

image-20231109162434659

训练模块

image-20231109162708803 image-20231109162807802 image-20231109162853156 image-20231109162948140 image-20231109163103654

保存模型参数权重字典

准确率

优化器参数权重字典

image-20231109163159034 image-20231109163341371

开始训练

model_fit, val_acc_history, train_acc_history, valid_losses, train_losses, LRs = train_model(model_ft, dataloaders, criterion, optimizer, num_epoches=10, is_inception=(model_name=='inception'))

测试网络效果

完整训练

 将所有参数的require_grad设置为TRue,将学习率调整的小一些,以为之前用了别人的网络参数,学习率过大,可能会破坏掉之前的训练参数。

<img alt= src=https://cdn.jsdelivr.net/gh/yanchenmochen/imgs/imgsimage-20231109165735676.png>

Load the checkpoint

 加载之前保存的最好的模型继续开始训练。

image-20231109165911702

实际测试

image-20231109170534039

加载模型

image-20231109170632279

测试数据预处理

image-20231109170839775

 将一张图像处理成输入。

得到处理结果

8是因为batchsize。

image-20231109171021606 image-20231109171107236 image-20231109171137736

总结

 看了一天这个课程,终于看完了,对于卷积神经网络也算是有了更加进一步的理解了。现在就是要多多实战,敲代码就好了。现在还有点困惑的点包括:

  • 优化器的选择
  • 损失函数的选择
     不过,这个课程让自己对于卷积的理解加深了许多。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/174508.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

洗地机和扫地机怎么选?洗地机品牌怎么选?2023旗舰洗地机总结

洗地机是一种可以一次性完成吸尘、拖地、洗地以及除菌的多功能智能清洁神器&#xff0c;它可以轻松的应对各种地面的干湿垃圾&#xff0c;提高地面清洁同时让清洁过程变得更加高效&#xff0c;但是目前的洗地机那么多&#xff0c;我们怎么挑选到一款合适的洗地机呢&#xff1f;…

关于值传递和引用传递的问题记录

目录 1. 问题概述 1.1 测试 1.2 结果 2. ArrayList和Arrays.ArrayList 1. 问题概述 最近忙着写论文很久没更新了&#xff0c;趁现在有时间简单记录一下最近遇到的一个坑。 对于Java中的List<>类型的对象&#xff0c;按我以前理解是引用传递&#xff0c;但有一点要注…

软件工程分析报告05体系结构说明书——基于Paddle的肝脏CT影像分割

基于Paddle的肝脏CT影像分割系统的体系结构说明书 目录 HIPO图 H图 Ipo图 软件结构图 面向数据流的体系结构设计图 程序流程图 S图 用PDL语言描述的伪代码 HIPO图 H图 Ipo图 软件结构图 面向数据流的体系结构设计图 程序流程图 S图 PAD图 用PDL语言描述的伪代码 (1)…

【Transformer从零开始代码实现 pytoch版】(六)模型基本测试运行

模型基本测试及运行 &#xff08;1&#xff09;构建数据生成器 def data_generator(V, batch, num_batch):""" 用于随机生成copy任务的数据:param V: 随机生成数字的最大值1:param batch: 每次输送给模型更新一次参数的数据量:param num_batch: 输送多少次完成…

自媒体项目详述

总体框架 本项目主要着手于获取最新最热新闻资讯&#xff0c;以微服务构架为技术基础搭建校内仅供学生教师使用的校园新媒体app。以文章为主线的核心业务主要分为如下子模块。自媒体模块实现用户创建功能、文章发布功能、素材管理功能。app端用户模块实现文章搜索、文章点赞、…

【论文阅读】CTAB-GAN: Effective Table Data Synthesizing

论文地址&#xff1a;[2102.08369] CTAB-GAN: Effective Table Data Synthesizing (arxiv.org) 介绍 虽然数据共享对于知识发展至关重要&#xff0c;但遗憾的是&#xff0c;隐私问题和严格的监管&#xff08;例如欧洲通用数据保护条例 GDPR&#xff09;限制了其充分发挥作用。…

PySide/PYQT如何用Qt Designer和代码来设置文字属性,如何设置文字颜色?

文章目录 📖 介绍 📖🏡 环境 🏡📒 实现方法 📒📝 Qt Designer设置📝 代码📖 介绍 📖 本人介绍如何使用Qt Designer/代码来设置字体属性(包含字体颜色) 🏡 环境 🏡 本文使用Pyside6来进行演示📒 实现方法 📒 📝 Qt Designer设置 首先打开Qt De…

爱心代码--C语言特供(可直接复制,亲测有效)

情人节到了&#xff0c;作为一名程序员&#xff0c;我们拥有属于我们的浪漫。 这里我总结了几种常见的爱心代码&#xff0c;简单易上手。 一.这是一种最为常见的爱心代码 #include<stdio.h> #include<Windows.h>int main() {float x, y, a;for (y 1.5; y > -1.…

手摸手入门Springboot+Grafana10.2接收JSON

JSON&#xff08;JavaScript Object Notation, JS对象简谱&#xff09;是一种轻量级的数据交换格式。它基于 ECMAScript&#xff08;European Computer Manufacturers Association, 欧洲计算机协会制定的js规范&#xff09;的一个子集&#xff0c;采用完全独立于编程语言的文本…

面试?看完这篇就够了-深入分析从点击应用图标到应用界面展示

作者&#xff1a;GeeJoe 从点击桌面图标到应用界面展示 从桌面点击图标到应用界面第一帧绘制出来&#xff0c;整个流程涉及的过程复杂&#xff0c;为了便于理解&#xff0c;这里将整个流程分为四个阶段&#xff1a;应用进程启动阶段、应用进程初始化阶段、Activity 启动阶段、…

【JVM】Java内存溢出分析(堆溢出、栈溢出、方法区溢出、直接内存溢出)

&#x1f4eb;作者简介&#xff1a;小明java问道之路&#xff0c;2022年度博客之星全国TOP3&#xff0c;专注于后端、中间件、计算机底层、架构设计演进与稳定性建设优化&#xff0c;文章内容兼具广度、深度、大厂技术方案&#xff0c;对待技术喜欢推理加验证&#xff0c;就职于…

Golang 中的 Context 包

简介 今天&#xff0c;我们将讨论 Go 编程中非常重要的一个主题&#xff1a;context 包。如果你现在觉得它很令人困惑&#xff0c;不用担心 — 在本文结束时&#xff0c;你将像专家一样处理 context&#xff01; 想象一下&#xff0c;你在一个主题公园&#xff0c;兴奋地准备…