[PyTorch][chapter 8][李宏毅深度学习][DNN 训练技巧]

前言:

   

       DNN 是神经网络的里面基础核心模型之一.这里面结合DNN 介绍一下如何解决

深度学习里面过拟合,欠拟合问题


目录:

  1.      DNN 训练常见问题
  2.      过拟合处理
  3.     欠拟合处理
  4.     keras 项目


一  DNN 训练常见问题

  我们在深度学习网络训练的时候经常会遇到下面两类问题:

         1:  训练集上面很差 : 欠拟合

         2: 训练集上面很好, 测试集上面很差: 过拟合


二  过拟合解决

过拟合解决方案

主要有以下三个处理思路

1 Early Stopped

2 L1 L2 正规化

3 Dropout

4: 增加训练集上面的数据量

 2.1  Early Stopping

   方案

   这个数据集分为3部分: Training Data,validation data,Test Data
   1  将训练的数据分为Training Data 和validation data
   2  每个epoch结束后(或每N个epoch后):计算validation data 的 accuracy 
   3: 更新 最优 validation data accuracy 对应的网络参数
   3  随着epoch的增加,如果validation data 连续多次没有提升,则停止训练;
   4  将之前validation data 准确率最高时的权重作为网络的最终参数。

2.2  正规化

      分为L1,L2 正规化.

2.3 Dropout

原网络结构

            z^{l+1}=w^{l+1}a^l+b^{l+1}

            a^{l+1}=\sigma(z^{l+1})

训练:

            Dropout

            a^{l}: 上面每个输入值以p%的概率变为0     

           z^{l+1}=w^{l+1}a^l+b^{l+1}

            a^{l+1}=\sigma(z^{l+1})

测试: 

          权重系数

             w^{l}=w^l*(1-p)

            一般p 设置为0.5

           

4  增加数据集上面数据量

      作用  降低方差


三  欠拟合

欠拟合处理方案

主要有下面5个处理思路:

     1 超参数调节: 学习率 训练轮次,batch_size

     2 更换激活函数

     3 梯度更新算法优化

     4  网络模型优化

     5 损失函数 更换

3.1  超参数调参

         主要更换学习率,增加迭代轮数等

 

3.2 更换激活函数

      DNN 随着网络层数的增加会出现梯度弥散现象,可以通过把激活函数sigmod 更换为

ReLu 一定程度上面优化该方案。    

    更换激活函数 ReLu(导数为1,链式求导的时候连乘不会减少)

        增加,减少 网络层数(梯度弥散,梯度爆炸)

        

3.3 梯度更新优化算法

      方案1  SGD 随机梯度下降

         \theta=\theta-\eta \bigtriangledown J(\theta)

        当梯度为0,参数无法更新容易陷入到局部极小值点

        学习率太大: 不容易进入到极小值点,容易发生网络震荡

         学习率太小: 收敛速度慢

 方案2 Momentum: 当前的梯度 = 当前的梯度+历史梯度

           SGD 会发生震荡而迟迟不能接近极小值,所以对更新梯度引入Momentum概念,加速SGD,并抑制震荡(也就是在SGD基础上引入了一阶动量)

            初始化动量:

                           m_0 =0: 动量

     

                             m_{t}=\lambda m_{t-1}+(1-\lambda)\bigtriangledown J(\theta_t): 动量

                             \theta_t=\theta_t -\eta m_t

           整个思想: 有点跟马尔科夫链时序链相似,当前输出值不仅仅跟当前的

输入相关,也跟历史值相关。

            

方案3:Adagrad (Adaptive Gradient,自适应梯度)

             不同参数进行不同程度的更新 - 逐参数适应学习率方法

           方案:

          在Adagrad算法中,每个参数的学习率各不相同。计算某参数的学习率时需将该参数前面所有时间步的梯度平方求和,随着时间步的增加,学习率将减小.

      v_t=\sum_{\tau=0}^{t}g_{\tau }^2

       \theta_t=\theta_t-\frac{\eta }{\sqrt{v_t+\varepsilon }}g_t

      

v_t: 二阶动量,权重系数里面的每个系数单独计算

\epsilon =1e-7

g_t: 当前权重系数的梯度

Adgrad方法中,学习率一直在衰减,所以可以起到抑制震荡的作用,

对于频繁更新的参数,它们的二阶动量比较大,学习率小;

对于不怎么更新的参数,它们的二阶动量比较小,学习率就大。

但因为那个分母是单调递增的,会使得学习率单调递减至0,可能会使得训练过程提前结束,即便后续还有数据也无法学到必要的知识

    

方案4 RMSProp:

Root Mean Square Propagation,自适应学习率方法,由Geoff Hinton提出,是梯度下降优化算法的扩展。在AdaGrad的基础上,对二阶动量的计算进行了改进:即有历史梯度的信息,但是我又不想让信息一直膨胀,那么只要让历史信息一直衰减就好了。因此得到RMSProp的二阶动量计算公式:

如下图所示,截图来自:https://arxiv.org/pdf/1609.04747.pdf

方案4 Adam算法即自适应时刻估计方法(Adaptive Moment Estimation)

算法思想  moment+Adagrad

同时考虑了动量 和二阶动量

3.4  更换损失函数

      比如mse 更换成CRE

3.5 更换模型

         增加网络层次,参数例如

      或者

           RNN 用LSTM  

           CNN 里面的ResNet

             解决梯度弥散问题



四    keras 

          Keras是一个由Python编写的开源人工神经网络库,可以作为Tensorflow、Microsoft-CNTK和Theano的高阶应用程序接口,进行深度学习模型的设计、调试、评估、应用和可视化 [1]。
Keras在代码结构上由面向对象方法编写,完全模块化并具有可扩展性,其运行机制和说明文档有将用户体验和使用难度纳入考虑,并试图简化复杂算法的实现难度 [1]。Keras支持现代人工智能领域的主流算法,包括前馈结构和递归结构的神经网络,也可以通过封装参与构建统计学习模型 [2]。在硬件和开发环境方面,Keras支持多操作系统下的多GPU并行计算,可以根据后台设置转化为Tensorflow、Microsoft-CNTK等系统下的组件 [3]。
Keras的主要开发者是谷歌工程师François Chollet,此外其GitHub项目页面包含6名主要维护者和超过800名直接贡献者 [4]。Keras在其正式版本公开后,除部分预编译模型外,按MIT许可证开放源代码 [1]

   keras 创建一个神经网络,训练,测试主要流程如下

model模型搭建
compile损失函数,loss, batch_size
fit训练
evaluate验证测试集
predict预测
model = Sequential()#输入层
model.add(Dense(input_dim=28*28,
units = 500,
activation='relu'))#1 隐藏层
model.add(Dense(units=500,
activation='relu'))#2 输出层
model.add(Dense(units=10,
activation='softmax'))model.compile(loss='categorical_crossentropy',
optimizer='adam'
metrics =['accuracy'])#3 pick the best function ,完成训练工作
model.fit(x_train, y_train, batch_size=100, epochs=20)#4 使用该模型
score = model.evaluate(x_test,y_test)
result = model.predict(x_test)

参考:

9-1: Tips for Training DNN_哔哩哔哩_bilibili

【优化算法】一文搞懂RMSProp优化算法 - 知乎

神经网络-优化器篇-从梯度下降到Adam方法 - 知乎

https://www.cnblogs.com/picassooo/p/12347927.html

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/300397.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

20231225在WIN10下使用SSH连接Ubuntu20.04.6

20231225在WIN10下使用SSH连接Ubuntu20.04.6 2023/12/25 23:03 https://jingyan.baidu.com/article/5552ef479e1856108ffbc9e3.html Win10怎么开启SSH功能 Win10怎么开启SSH功能,下面就一起来看看吧! 工具/原料 华硕天选4 Windows10 方法/步骤 点击左下角的开始菜单,打开Wind…

XStream 反序列化漏洞 CVE-2021-39144 已亲自复现

XStream 反序列化漏洞 CVE-2021-39144 已亲自复现 漏洞名称漏洞描述影响版本 漏洞复现环境搭建 修复建议总结 漏洞名称 漏洞描述 在Unmarshalling Time处包含用于重新创建前一对象的类型信息。XStream基于这些类型的信息创建新实例。攻击者可以控制输入流并替换或注入对象&am…

nosql--RedisTemplate定制化

nosql--RedisTemplate定制化 1、序列化2、如果使用redis中保存数据会使用默认的序列化机制,导致redis中保存的对象不可视2.1将所有的对象以JSON的形式保存2.2配置reids自定义配置2.3转化成功2.4配置文件代码 3redis客户端 1、序列化 stringRedisTemplate RedisTemp…

YOLOv8改进 | 主干篇 | RevColV1可逆列网络(特征解耦助力小目标检测)

一、本文介绍 本文给大家带来的是主干网络RevColV1,翻译过来就是可逆列网络去发表于ICLR2022,其是一种新型的神经网络设计(和以前的网络结构的传播方式不太一样),由多个子网络(列)通过多级可逆连接组成。这种设计允许…

【机器学习】Boosting算法-梯度提升算法(Gradient Boosting)

一、原理 梯度提升算法是一种集成学习方法,它可以将多个弱分类器或回归器组合成一个强分类器或回归器,提高预测性能。梯度提升算法的核心思想是利用损失函数的负梯度作为残差的近似值,然后用一个基学习器拟合这个残差,再将其加到之…

【Hadoop】ZooKeeper数据模型Znode

ZooKeeper 数据模型ZnodeZooKeeper 中的时间ZooKeeper 节点属性 ZooKeeper 数据模型Znode 前面提过,Zookeeper相当于文件系统通知机制。既然是文件系统,那就涉及数据模型。 ZooKeeper 的数据模型在结构上和Unix标准文件系统非常相似,都是采用…

周赛377

文章目录 周赛377[2974. 最小数字游戏](https://leetcode.cn/problems/minimum-number-game/)模拟 [2975. 移除栅栏得到的正方形田地的最大面积](https://leetcode.cn/problems/maximum-square-area-by-removing-fences-from-a-field/)贪心 [2976. 转换字符串的最小成本 I](htt…

时序预测 | Matlab实现SSA-CNN-BiLSTM麻雀算法优化卷积双向长短期记忆神经网络时间序列预测

时序预测 | Matlab实现SSA-CNN-BiLSTM麻雀算法优化卷积双向长短期记忆神经网络时间序列预测 目录 时序预测 | Matlab实现SSA-CNN-BiLSTM麻雀算法优化卷积双向长短期记忆神经网络时间序列预测预测效果基本介绍程序设计参考资料 预测效果 基本介绍 MATLAB实现SSA-CNN-BiLSTM麻雀算…

[Python进阶] 操作注册表:winreg

5.22 操作注册表:winreg 5.22.1 注册表概念 在Windows系统中,注册表本质上就是一个数据库,其中存放着硬件、软件、用户、操作系统以及程序相关设置信息。我们除了使用Windows系统自带的regedit程序,也可以通过Python编程读取并操…

w15php系列之基础类型

一、计算100之内的偶数之和 实现思路 所有的偶数除2都为0 代码实现 <?php # 记录100以内的偶数和 $number1; $num0; while($number<100){if($number%20){ $num$number;}$number1; } echo $num; ?>输出的结果 二、计算100之内的奇数之和 实现思路 所有的奇数除…

IPC之十:使用共享文件进行进程间通信的实例

IPC 是 Linux 编程中一个重要的概念&#xff0c;IPC 有多种方式&#xff0c;常用的 IPC 方式有管道、消息队列、共享内存等&#xff0c;但其实使用广大程序员都熟悉的文件也是可以完成 IPC 的&#xff0c;本文介绍如何使用共享文件实现进程间通信&#xff0c;本文给出了具体的实…

AssertionError: The environment must specify an action space. 报错 引发的惨案

起因是&#xff1a;从github上下载了一个代码&#xff0c;运行出错。 整体流程&#xff1a; 1. AssertionError: The environment must specify an action space. 报错&#xff0c;解决方案是 降级gym到 gym0.18.0 2.为了降级gym gym0.18.0 报错&#xff0c;发现需要降级 setup…