1、ResNet是什么?
ResNet(Residual Network,残差网络)是一种在深度学习领域中非常重要的卷积神经网络(CNN)架构。
ResNet的核心思想是残差学习,通过学习输入与输出的残差,简化优化任务。其关键结构是残差块,通过短连接(Skip Connection)直接跳过部分非线性层,将输入直接传递至输出,有效缓解梯度消失问题。
2、张量与向量的关系?
向量是一维的,可以看作是一阶张量,而张量是一个更广泛的概念,可以有多个维度。在深度学习中,张量是非常重要的数据结构,用于表示和处理多维数据。下图展示了张量在不同维度的形式:
3、分割算法的作用?
图像分割算法通过像素级解析为计算机视觉任务提供基础数据,其作用贯穿于感知、分析与决策的各个环节。
深度学习中的图像分割算法通过像素级分类实现对图像的精细化分析与理解,其核心作用包括以下方面:
- 精准识别物体边界:分割算法可为图像中的每个像素分配类别标签,精确划分不同对象的边界,例如区分医学影像中的病变组织与正常组织。
- 提取结构化信息:通过分割结果生成掩膜(Mask),为后续任务(如目标检测、三维重建)提供结构化数据支持
4、分割任务的类型?
- 语义分割:为所有像素分配类别标签(如区分“车”“人”“路”)
- 实例分割:区分同类物体的不同实例(如分离同一场景中的多辆汽车)
5、深度学习中的Mask是什么?
Mask在深度学习中扮演“像素级导航”角色,通过精准的区域标识,支持分割、检测、生成等任务。
Mask(掩膜) 是一个关键概念,尤其在图像分割、目标检测和生成任务中广泛应用。
它通常是一个与输入数据(如图像)同尺寸的二值矩阵或类别矩阵,用于标识特定区域或像素的归属(如属于目标、背景或类别)。
Mask的核心作用
- 区域标记:
Mask明确指示图像中哪些像素属于目标区域(如用1表示目标,0表示背景),或为每个像素分配类别标签(如语义分割中的多通道掩膜)。 - 信息约束:
在训练或推理中限制模型仅关注特定区域,例如在图像修复任务中,Mask标记缺失区域,模型仅生成该区域内容。
6、反向传播之前为什么要梯度清零?
梯度清零是为了防止多个批次的梯度叠加,确保每次参数更新仅基于当前批次的计算结果,避免训练不稳定或错误更新。
-
梯度清零的意义:确保每个批次的梯度独立计算,避免历史梯度干扰当前批次的学习方向。
-
默认行为:在PyTorch等框架中,梯度是累积的(
gradient accumulation
)。每次调用.backward()
计算梯度时,新的梯度会累加到之前的梯度上,而不是覆盖。 -
不清零的后果:如果不清零梯度,多个批次的梯度会叠加,导致参数更新时的梯度值过大,可能引发以下问题:
-
模型参数更新不稳定(震荡或爆炸);
-
训练过程无法收敛;
-
损失函数剧烈波动。
-
7、关于数据增强
在有限的数据集中,通过数据增强,达到提升识别准确度和解决图像损坏、位置被遮挡的问题。
一般常用前两种方法:空间转换和颜色扭曲
同时对数据样本进行下面的操作,模拟异常场景,也可以提升模型的整体识别能力和抗干扰能力;
- 进行图像擦除,从而提高图像的整体识别能力和抗干扰能力
- 进行图像融合,达到图像雾化模糊的效果,从而提高图像的整体识别能力和抗干扰能力
- 同理还有图像拼接
8、BP神经网络是什么?
BP神经网络(Backpropagation Neural Network)是一种利用反向传播算法进行训练的多层前馈神经网络。
基本结构
-
层级组成:包含输入层、至少一个隐藏层和输出层,每层由多个神经元(节点)构成。
-
全连接:相邻层间的神经元通过权重连接,数据单向流动(前馈)。
-
激活函数:如Sigmoid、ReLU等,引入非线性,使网络能拟合复杂模式。
工作原理
-
正向传播:输入数据逐层传递,经加权求和和激活函数处理,最终输出预测结果。
-
损失计算:使用均方误差(MSE)或交叉熵等损失函数,衡量预测值与真实值的差距。
反向传播算法
-
梯度计算:通过链式法则,从输出层到输入层逐层计算损失函数对权重的梯度。
-
输出层误差:损失函数对输出的导数 × 激活函数导数。
-
隐藏层误差:将误差按权重分配至前一层,结合激活函数导数逐层回传。
-
-
权重更新:使用梯度下降法(如SGD、Adam)调整权重,减小损失。
优缺点
-
优点:
-
可逼近任意连续函数(万能逼近定理)。
-
适用于分类、回归等多种任务。
-
-
缺点:
-
梯度消失/爆炸:深层网络中梯度可能不稳定,影响训练(ReLU、残差结构可缓解)。
-
过拟合:参数多易拟合噪声(Dropout、正则化应对)。
-
计算成本:全连接层参数多,训练耗时。
-
应用场景
-
分类问题:如图像识别、文本分类。
-
回归预测:如房价预测、销量分析。
-
模式识别:如语音处理、手写体识别。
改进与变体
-
激活函数优化:ReLU解决梯度消失,Leaky ReLU避免神经元“死亡”。
-
结构改进:卷积神经网络(CNN)处理图像,循环神经网络(RNN)处理序列。
-
训练技巧:批归一化(BatchNorm)、自适应优化器(Adam)提升稳定性。
9、批归一化(BatchNorm)是什么?
10、自适应优化器(Adam)是什么?
11、CNN是什么?
12、RNN是什么?
13、机器学习中ROS是什么?
14、机器学习中SLAM是什么?