深入解析yolov5,为什么算法都是基于yolov5做改进的?(一)

在这里插入图片描述

YOLOv5简介

YOLOv5是一种单阶段目标检测算法,它在YOLOv4的基础上引入了多项改进,显著提升了检测的速度和精度。YOLOv5的设计哲学是简洁高效,它有四个版本:YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x,分别对应不同的模型大小和性能。
YOLOv5的四个版本(s,m,l,x)——YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x,它们之间的主要区别在于模型的深度和宽度,即模型的复杂度和性能。下面是各个版本的具体区别:
在这里插入图片描述可以看到每个模型对应的大小速度检测性能都有差距

YOLOv5s

  • 尺寸和速度:YOLOv5s是四个版本中尺寸最小、速度最快的模型。它适用于需要快速推理且对模型大小有限制的应用场景,如移动设备或嵌入式系统。
  • 特征图宽度和深度:相比于其他版本,YOLOv5s的输入特征图的宽度和网络的深度都较小。

YOLOv5m

  • 中等性能:YOLOv5m在模型大小和性能之间取得平衡,比YOLOv5s稍大且稍慢,但比YOLOv5l和YOLOv5x小和快。
  • 适用场景:适合于大多数常规目标检测任务,是一个比较通用的选择。

YOLOv5l

  • 更大尺寸和更强性能:YOLOv5l比YOLOv5s和YOLOv5m更大,拥有更多的参数,因此在目标检测任务上通常能提供更高的准确率。
  • 计算资源需求:由于模型更大,因此对计算资源的需求也更高,适合于服务器或云端应用,其中对延迟不太敏感。

YOLOv5x

  • 最大尺寸和最佳性能:YOLOv5x是四个版本中最庞大、最强大的模型,提供最高的准确率。
  • 应用场景:适用于对检测精度要求极高的场景,如一些研究项目或对性能有极致追求的商业应用。
  • 资源消耗:由于模型的复杂性,YOLOv5x对硬件的要求最高,通常只在具有强大计算能力的环境下使用。

共同特点

在这里插入图片描述

尽管这四个版本在尺寸和性能上有所不同,但它们都保持了YOLO系列的核心架构和特性,如单阶段检测流程、端到端的训练方式等。此外,它们都可以通过修改配置文件来适应不同的应用需求,具有很高的灵活性。

1.YOLOv5网络结构

YOLOv5的网络结构可以分为四个主要部分:输入端、Backbone、Neck和Head。
在这里插入图片描述

2.1 输入端

输入端是模型处理图像数据的第一步,YOLOv5在此阶段采用了几种关键技术来提升模型性能:

Mosaic数据增强

  • 目的:增强模型对不同尺度、不同角度目标的识别能力,提升模型泛化性。
  • 方法:随机选择四张图片,将它们缩放到不同尺度后,按照一定比例放置在一张大图中的四个角落,形成一张增强图像。
  • 效果:模拟了多尺度目标检测,增加了模型训练时的数据多样性。
    在这里插入图片描述

在这里插入图片描述

自适应锚框计算

  • 目的:为不同的数据集自动计算合适的锚框尺寸,提高检测框预测的准确性。
  • 方法:利用数据集中所有目标的宽和高的统计信息,通过k-means聚类算法计算出一组合适的锚框尺寸。
  • 优势:避免了手动调整锚框尺寸,使模型更适应具体应用的数据集。
    在这里插入图片描述

自适应图片缩放

  • 目的:在测试时减少不必要的计算,提高推理速度。
  • 方法:根据原始图像尺寸和网络输入尺寸计算缩放比例,对图像进行缩放,并在必要时填充边缘以保持网络输入尺寸的一致性。
  • 应用:在模型推理时使用,训练时仍然使用固定的输入尺寸。
    在这里插入图片描述

2.2 Backbone

Backbone是模型中用于特征提取的主要网络结构,YOLOv5的Backbone设计注重效率和性能:
在这里插入图片描述

Focus结构

这里详细讲一下Focus结构,Focus结构是YOLOv5中的一个创新点,它用于在模型的早期阶段有效地进行特征图的下采样,同时增加网络的通道数,以保留更多的图像信息。Focus结构的设计理念是在不增加计算量的前提下,通过特定的操作来提升特征的表达能力。

Focus结构的作用
  1. 减少计算量:通过特定的切片操作,Focus结构能够在不丢失关键信息的情况下,实现对输入图像的下采样。
  2. 增加通道数:在下采样的同时,Focus结构将输入图像的通道数增加,这样做可以在后续的网络结构中提供更丰富的特征表示。
    在这里插入图片描述
Focus结构的工作原理

Focus结构的工作原理可以分解为以下几个步骤:

  1. 切片操作:将输入图像按通道进行切片,每隔一个通道取一个通道的值。例如,对于一个具有3个通道的输入图像,如果按照顺序排列通道值为[C1, C2, C3],则切片后得到的通道值为[C1, 0, C3],其中0代表未使用的通道位置。

  2. 拼接操作:将切片后得到的图像按通道方向拼接起来。例如,如果原始图像是320x320x3,经过切片操作后,图像变为160x320x6,因为每个通道的像素点数减半,而通道数翻倍。

  3. 卷积操作:对拼接后的图像进行卷积操作,通常是一个1x1的卷积,用于混洗和整合特征,最终得到下采样的特征图,尺寸通常是输入图像的一半,但通道数保持不变或有所增加。

Focus结构的优势
  • 计算效率:相比于直接进行卷积操作,Focus结构通过切片和拼接的方式减少了计算量。
  • 信息保留:尽管进行了下采样,但由于切片操作的特性,图像的关键视觉信息得以保留。
  • 特征增强:增加的通道数为后续网络结构提供了更丰富的特征表示,有助于提升检测性能。
Focus结构的实现

在YOLOv5的早期版本中,Focus结构是作为一个独立的模块实现的。但在后续的版本中,为了提高计算效率,特别是考虑到某些硬件对大卷积核的支持更好,Focus结构被一个6x6的卷积层所替代。这个6x6的卷积层在计算上等同于Focus结构的切片和拼接操作,但可能更适合某些GPU硬件的优化。

Focus结构是YOLOv5中的一个创新点,它体现了设计者在保持模型性能的同时对计算效率的重视。通过这种方式,YOLOv5能够在资源受限的设备上实现高效的目标检测。
在这里插入图片描述

代码示例

在YOLOv5的早期版本中,Focus结构作为一个独立的模块被实现。以下是一个简化版的Focus结构的代码示例,它展示了如何通过切片和拼接操作来实现通道数的增加和特征图的下采样:

import torch
import torch.nn as nnclass Focus(nn.Module):def __init__(self, c1, c2):  # c1为输入的通道数,c2为输出的通道数super(Focus, self).__init__()self.conv = nn.Conv2d(c1 * 4, c2, 3, 2, 1)  # 卷积操作,输出通道为c2,步长为2实现下采样def forward(self, x):# 假设输入特征图的尺寸为 [N, C, H, W],其中 C = c1# 切片操作:将C个通道分为4组,每组有C//4个通道# 通过reshape改变维度,使用view操作重新排列通道x = x.view(x.size(0), x.size(1) // 2, 2, x.size(2), x.size(3))x = x.permute(0, 1, 3, 2, 4).contiguous()  # 调整维度顺序,然后进行拼接x = x.view(x.size(0), x.size(1) * 2, x.size(2), x.size(3))  # 拼接后的特征图# 通过卷积层实现特征融合,并进行下采样return self.conv(x)# 假设输入的特征图尺寸为 [N, 3, 320, 320]
focus = Focus(c1=3, c2=12)
input_tensor = torch.randn(1, 3, 320, 320)  # 随机生成一个输入特征图
output_tensor = focus(input_tensor)  # 通过Focus结构print("Output shape:", output_tensor.shape)  # 输出特征图的尺寸

在这个代码示例中,Focus 类首先将输入特征图的通道数减半,并将其分为两部分,然后通过viewpermute操作重新排列这些通道,实现切片和拼接的效果。最后,通过一个卷积层进一步融合特征并进行空间维度的下采样。

CSP结构

  • CSP1_X:在Backbone中使用,通过共享权重减少计算量。
  • CSP2_X:在Neck中使用,结合CSP结构和Focus结构的优点,进一步减少计算量并保持特征表达能力。
  • CSPNet(Cross Stage Partial Network)是一种用于计算机视觉任务,尤其是在目标检测领域中的网络结构优化技术。CSPNet的核心思想是在网络的多个阶段中共享权重,以此来减少计算量和参数数量,同时保持或提升模型的性能。
    在这里插入图片描述

CSPNet的主要特点:

  1. 权重共享:在网络的多个阶段(stage)中,CSPNet通过共享卷积层的权重来减少模型的参数量。

  2. 计算量减少:由于权重共享,模型在训练和推理时的计算量会显著减少,这使得模型可以更快地训练和执行。

  3. 性能保持:尽管参数和计算量减少了,CSPNet通过精心设计的网络结构,仍然能够保持较高的性能。

  4. 灵活性:CSPNet可以很容易地集成到现有的网络架构中,如YOLO系列,以提高效率。

CSPNet的工作流程:

在这里插入图片描述

  1. 输入特征图:网络接收输入特征图,该特征图是从之前的网络层传递而来。

  2. 卷积操作:对输入特征图进行卷积操作,得到初步的输出特征图。

  3. 权重共享:将初步的输出特征图复制一份,并将复制的副本与原始输出特征图一起输入到下一个卷积层。在这个阶段,两个输入共享相同的卷积权重。

  4. 特征融合:通过共享权重的卷积层后,得到的特征图在通道维度上进行合并,形成最终的输出特征图。

  5. 输出:最终的输出特征图将传递到网络的下一个阶段,用于进一步的处理或作为检测任务的输入。

代码示例:

下面是一个简化版的CSP结构的代码示例,展示了如何在PyTorch中实现CSPNet的概念:

import torch
import torch.nn as nnclass CSPBlock(nn.Module):def __init__(self, c1, c2):super(CSPBlock, self).__init__()self.conv1 = nn.Conv2d(c1, c2, 1, 1, 0, bias=False)self.conv2 = nn.Conv2d(c1, c2, 1, 1, 0, bias=False)def forward(self, x):x1 = self.conv1(x)x2 = self.conv2(x)# 假设这里有一个额外的卷积层或网络分支# 例如: x2 = some_other_conv(x2)return torch.cat([x1, x2], dim=1)  # 在通道维度上合并特征图# 假设输入的特征图尺寸为 [N, C, H, W]
csp_block = CSPBlock(c1=64, c2=32)
input_tensor = torch.randn(1, 64, 56, 56)  # 随机生成一个输入特征图
output_tensor = csp_block(input_tensor)print("Output shape:", output_tensor.shape)  # 输出特征图的尺寸

在这个示例中,CSPBlock 类通过两次卷积操作生成两个特征图,然后将它们在通道维度上合并。这种方式减少了参数数量和计算量,同时保留了特征信息。

CSPNet通过减少模型的计算负担,使得在资源受限的设备上部署高效的深度学习模型成为可能,特别是在需要实时处理的场合,如自动驾驶和视频监控系统中的目标检测。

2.3 Neck

Neck是连接Backbone和Head的中间部分,负责特征的进一步融合和传递:
在这里插入图片描述

FPN+PAN结构

  • FPN (特征金字塔网络):通过自顶向下的路径传递高层的语义信息。
  • PAN (路径聚合网络):通过自底向上的路径传递低层的细节信息。
  • 结合:FPN和PAN的结合使用,构建了一个多层次、多尺度的特征融合框架,增强了模型对不同尺寸目标的检测能力。

CSP2结构

  • 应用:在Neck中采用CSP2结构,加强了特征融合的能力,同时保持了计算效率。

2.4 Head

Head是模型的最后一部分,负责生成最终的检测结果:

CIOU_Loss

  • 目的:作为bounding box的损失函数,比传统的IoU Loss更能准确衡量预测框和真实框之间的相似度。
  • 优势:CIOU_Loss考虑了重叠区域、中心点距离和宽高比,有助于生成更准确的预测框。
  • CIOU_Loss(Complete Intersection over Union Loss)是一种用于目标检测任务中bounding box预测的损失函数。CIOU_Loss不仅考虑了重叠区域(IoU),还考虑了中心点距离和宽高比,从而更全面地衡量预测框和真实框之间的相似度。
CIOU_Loss的计算方法

CIOU_Loss的计算包括以下几个部分:

  1. IoU(Intersection over Union):计算预测框和真实框的交集与并集的比值。

  2. 距离惩罚(Distance Penalty):计算预测框中心点与真实框中心点的欧氏距离。

  3. 宽高比惩罚(Aspect Ratio Penalty):计算预测框与真实框的宽高比的差的惩罚项。

  4. 最终的CIOU_Loss:将上述三部分结合,得到一个综合的损失值。

在这里插入图片描述

CIOU_Loss的代码示例

以下是使用PyTorch实现的CIOU_Loss的一个简化示例:

import torch
import torch.nn as nn
import torch.nn.functional as Fclass CIOULoss(nn.Module):def __init__(self):super(CIOULoss, self).__init__()def forward(self, pred_boxes, true_boxes):# 计算IoUinter_area = self.compute_intersection(pred_boxes, true_boxes)union_area = self.compute_union(pred_boxes, true_boxes)iou = inter_area / union_area# 计算中心点距离rho2 = self.compute_center_distance(pred_boxes, true_boxes)# 计算宽高比惩罚v = self.compute_ar_inconsistency(pred_boxes, true_boxes)# 计算CIOU_Lossalpha = self.calculate_alpha(pred_boxes, true_boxes, v)loss = 1 - iou + (rho2 / alpha) + (v / (alpha ** 2))return loss.mean()def compute_intersection(self, pred_boxes, true_boxes):# 计算预测框和真实框的交集面积# pred_boxes, true_boxes的形状为 [N, 4],4表示(x1, y1, x2, y2)inter_top_left = torch.max(pred_boxes[:, None, :2], true_boxes[:, :2])inter_bot_right = torch.min(pred_boxes[:, None, 2:], true_boxes[:, 2:])inter_wh = torch.clamp(inter_bot_right - inter_top_left, min=0)inter_area = inter_wh[:, :, 0] * inter_wh[:, :, 1]return inter_areadef compute_union(self, pred_boxes, true_boxes):# 计算预测框和真实框的并集面积pred_areas = (pred_boxes[:, 2] - pred_boxes[:, 0]) * (pred_boxes[:, 3] - pred_boxes[:, 1])true_areas = (true_boxes[:, 2] - true_boxes[:, 0]) * (true_boxes[:, 3] - true_boxes[:, 1])union_area = pred_areas[:, None] + true_areas - self.compute_intersection(pred_boxes, true_boxes)return union_areadef compute_center_distance(self, pred_boxes, true_boxes):# 计算中心点距离的平方delta_x = pred_boxes[:, None, 0] - true_boxes[:, 0]delta_y = pred_boxes[:, None, 1] - true_boxes[:, 1]rho2 = delta_x ** 2 + delta_y ** 2return rho2def compute_ar_inconsistency(self, pred_boxes, true_boxes):# 计算宽高比不一致性pred_w = pred_boxes[:, 2] - pred_boxes[:, 0]pred_h = pred_boxes[:, 3] - pred_boxes[:, 1]true_w = true_boxes[:, 2] - true_boxes[:, 0]true_h = true_boxes[:, 3] - true_boxes[:, 1]v = (pred_w / pred_h - true_w / true_h) ** 2 * (4 - torch.abs(pred_w * pred_h / (true_w * true_h)))return vdef calculate_alpha(self, pred_boxes, true_boxes, v):# 使用高斯曲率函数计算alphaeps = 1e-7alpha = v / (4 - v + eps) + epsreturn alpha# 假设我们有5个预测框和真实框
pred_boxes = torch.tensor([[100, 150, 200, 200], [120, 160, 220, 210], [100, 100, 150, 150], [80, 120, 120, 160], [90, 130, 130, 170]])
true_boxes = torch.tensor([[150, 200, 250, 250], [140, 190, 240, 240], [120, 110, 170, 160], [100, 140, 150, 180], [80, 130, 120, 170]])ciouloss = CIOULoss()
loss = ciouloss(pred_boxes, true_boxes)
print(loss)

DIOU_nms

  • DIOU (距离交并比):一种改进的IoU,考虑了预测框和真实框之间的中心点距离。
  • nms (非极大值抑制):用于筛选重叠的预测框,保留最佳的检测结果。
  • 结合:DIOU_nms在非极大值抑制过程中考虑了中心点距离,提高了小目标和密集目标的检测性能。

通过这些精心设计的结构和技术,YOLOv5在目标检测任务中实现了高效和高精度的检测性能。

DIOU_nms(Distance Intersection over Union Non-Maximum Suppression)是一种改进的非极大值抑制(NMS)算法,它在传统的IoU(Intersection over Union)NMS的基础上增加了对预测框与真实框中心点距离的考量。DIOU_nms的目的是更精确地筛选出最佳的检测框,尤其是在处理重叠目标和相近目标时。

DIOU_nms的计算方法

DIOU_nms的计算包括以下步骤:

  1. 计算IoU:首先计算预测框与真实框之间的IoU值。

  2. 计算中心点距离:计算预测框中心点与真实框中心点之间的欧氏距离。

  3. 计算DIOU值:结合IoU值和中心点距离,计算预测框的DIOU值。DIOU值越小,表示预测框与真实框的匹配度越高。

  4. 非极大值抑制:根据DIOU值对预测框进行排序,并逐个比较,抑制掉重叠度高且DIOU值较大的预测框。

  5. 选择最佳预测框:保留DIOU值最小的预测框作为最终的检测结果。

DIOU_nms的示例代码

以下是使用PyTorch实现的DIOU_nms的一个简化示例:

import torchdef diou_nms(boxes, scores, iou_threshold):"""非极大值抑制,使用DIOU距离进行筛选boxes: 预测框的坐标,形状为 [N, 4],4表示(x1, y1, x2, y2)scores: 每个预测框的得分,形状为 [N]iou_threshold: 交并比阈值,当IoU大于该阈值时,认为预测框与真实框重叠"""# 将boxes转换为中心点坐标和宽高boxes_c = torch.cat([(boxes[:, :2] + boxes[:, 2:]) / 2, boxes[:, 2:] - boxes[:, :2]], 1)order = scores.argsort(descending=True)  # 根据得分排序keep = []  # 存储保留的预测框的索引while order.size(0) > 0:i = order[0]  # 选择得分最高的预测框keep.append(i)  # 将其加入保留列表# 计算与其他预测框的IoU和DIOU距离ious = torch.zeros(order.size(0))dious = torch.zeros(order.size(0))for j, k in enumerate(order[1:]):# 计算IoUiou = bbox_iou(boxes_c[i], boxes_c[k+1])ious[j] = iou# 计算DIOUdiou = bbox_diou(boxes_c[i], boxes_c[k+1])dious[j] = diou# 保留IoU小于阈值的预测框idxs = torch.where(ious < iou_threshold)[0] + 1order = order[idxs]return torch.tensor(keep)def bbox_iou(box1, box2):# 计算IoUinter_top_left = torch.max(box1[:2], box2[:2])inter_bot_right = torch.min(box1[2:], box2[2:])inter_wh = torch.clamp(inter_bot_right - inter_top_left, min=0)inter_area = inter_wh[0] * inter_wh[1]area1 = (box1[2] - box1[0]) * (box1[3] - box1[1])area2 = (box2[2] - box2[0]) * (box2[3] - box2[1])return inter_area / (area1 + area2 - inter_area)def bbox_diou(box1, box2):# 计算DIOUiou = bbox_iou(box1, box2)c1 = (box1[:2] + box1[2:]) / 2c2 = (box2[:2] + box2[2:]) / 2rho2 = (c1 - c2).norm() ** 2return iou - rho2 / ((box1[2] - box1[0]) * (box1[3] - box1[1]) + 1e-6)# 假设我们有5个预测框和相应的得分
boxes = torch.tensor([[100, 150, 200, 200], [120, 160, 220, 210], [100, 100, 150, 150], [80, 120, 120, 160], [90, 130, 130, 170]])
scores = torch.tensor([0.9, 0.8, 0.7, 0.6, 0.5])
iou_threshold = 0.5keep_indices = diou_nms(boxes, scores, iou_threshold)
print("Indices of kept boxes:", keep_indices)

在这个示例中,我们首先定义了diou_nms函数,它接受预测框、得分和IoU阈值作为输入,然后根据DIOU值进行非极大值抑制。我们还定义了辅助函数bbox_ioubbox_diou来计算IoU和DIOU值。

请注意,这个示例是一个简化的版本,仅用于演示DIOU_nms的基本计算方法。在实际应用中,DIOU_nms的实现可能会更加复杂,包括对输入格式的处理、边界条件的处理等。此外,为了提高效率,实际的实现可能会采用不同的方法来计算交并比和中心点距离。
在这里插入图片描述

3. YOLOv5实现细节(以下章节下一篇文章…)

YOLOv5的实现涉及到多个基础组件和实现细节,包括CBL模块、Res unit、CSP1_X、CSP2_X、Focus、SPP等。

3.1 基础组件

  • CBL:由Conv+BN+Leaky_relu激活函数组成。
  • Res unit:借鉴ResNet的残差结构,构建深层网络。
  • CSP1_X & CSP2_X:借鉴CSPNet,通过CBL和Res unit构建。

3.2 实现细节

  • Focus结构:通过slice操作裁剪输入图片,实现通道数的增加。
  • CSP结构:在Backbone和Neck中分别应用CSP1_X和CSP2_X结构。

4. YOLOv5训练策略

YOLOv5的训练策略包括多尺度训练、warmup预热、cosine学习率下降、EMA权重更新和混合精度训练。

5. YOLOv5性能分析

YOLOv5在COCO数据集上展现了优异的性能,不同版本的YOLOv5根据模型大小和速度需求,可以在AP指标和推理速度之间做出权衡。
在这里插入图片描述

6. YOLOv5改进方向

YOLOv5作为一个开放的算法框架,社区已经提出了多种改进方案,包括添加注意力机制、替换主干网络、改进损失函数和NMS算法等。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/661601.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

Dockerfile实战(SSH、Systemctl、Nginx、Tomcat)

目录 一、构建SSH镜像 1.1 dockerfile文件内容 1.2 生成镜像 1.3 启动容器并修改root密码 二、构建Systemctl镜像 2.1 编辑dockerfile文件 ​编辑2.2 生成镜像 2.3 启动容器&#xff0c;并挂载宿主机目录挂载到容器中&#xff0c;然后进行初始化 2.4 进入容器验证 三、…

基本STL使用

一 、关于vector 在STL中有一个称为vector的数据结构&#xff0c;可以用来代替数组。 定义Book特性 private:vector<string> shelf_books;Notic : 类中不能使用类似的定义&#xff1a;vector<sttring> shelf_boos( 10 ); 定义Book方法 public:void setName(str…

PDF 正确指定页码后,挂载的书签页码对不上

这个问题与我的另一篇中方法一样 如何让一个大几千页的打开巨慢的 PDF 秒开-CSDN博客 https://blog.csdn.net/u013669912/article/details/138166922 另作一篇的原因 一篇文章附带一个与该文章主题不相关的问题时&#xff0c;不利于被遇到该问题的人快速搜索发现以解决其遇到…

OpenCV如何实现背投(58)

返回:OpenCV系列文章目录&#xff08;持续更新中......&#xff09; 上一篇&#xff1a;OpenCV直方图比较(57) 下一篇&#xff1a;OpenCV如何模板匹配(59) 目标 在本教程中&#xff0c;您将学习&#xff1a; 什么是背投以及它为什么有用如何使用 OpenCV 函数 cv::calcBackP…

Windows之隐藏特殊文件夹(自定义快捷桌面程序)

作者主页&#xff1a;点击&#xff01; 创作时间&#xff1a;2024年5月1日12点55分 祝大家劳动节快乐~ Windows中的特殊文件夹是指一些预定义的文件夹&#xff0c;用于存储特定类型的数据或文件。这些文件夹通常由操作系统或应用程序使用&#xff0c;但用户也可以访问和管理它…

数字旅游引领未来智慧之旅:科技应用深度重塑旅游生态,智慧服务全面升级打造极致高品质旅游体验

随着信息技术的飞速发展&#xff0c;数字旅游作为旅游业与科技融合的新兴业态&#xff0c;正以其独特的魅力和优势&#xff0c;引领着旅游业迈向智慧之旅的新时代。数字旅游不仅通过科技应用重塑了旅游生态&#xff0c;更通过智慧服务为游客带来了高品质的旅游体验。本文将深入…

bun 换源 国内阿里源 npmmirror 加速下载

Github https://github.com/oven-sh/bun 版本号 bun 1.1.5 windows 安装 bun 如果本机有 nodejs 环境, 可以 npm install -g bun 安装 ( 官方把 exe 已经传到了 npm 仓库, 走的国内 npm 镜像, 下载速度会很快) 没有 nodejs, 可以用 powershell 脚本安装 具体操作 全局 …

自定义之道:学习 Java 中如何打磨独特的异常

哈喽&#xff0c;各位小伙伴们&#xff0c;你们好呀&#xff0c;我是喵手。 今天我要给大家分享一些自己日常学习到的一些知识点&#xff0c;并以文字的形式跟大家一起交流&#xff0c;互相学习&#xff0c;一个人虽可以走的更快&#xff0c;但一群人可以走的更远。 我是一名后…

HR招聘测评,什么是好用的在线人才测评工具?

选择哪一种人才测评工具&#xff1f;特别是每年的招聘高峰季节。根据以往的工作经验&#xff0c;一个好用的在线人才工具&#xff0c;可以起到事半功倍的效果&#xff0c;带给人力资源工作者一个轻松的工作体验。因此&#xff0c;我们必须对好用的人才测评工具有一个基本的认识…

2023 年 Django 开发者调查结果(jetbrains)

原文-中文 原文-英文 推荐观看原文。 本报告基于 2023 年 9 月至 10 月进行的第三次年度 Django 开发者调查&#xff0c;是 Django 软件基金会和 PyCharm 之间的合作成果。为了帮助我们更好地了解框架的当前状态及其周围的生态系统&#xff0c;来自世界各地的大约 4,000 名 Dja…

【论文笔记】Training language models to follow instructions with human feedback A部分

Training language models to follow instructions with human feedback A 部分 回顾一下第一代 GPT-1 &#xff1a; 设计思路是 “海量无标记文本进行无监督预训练少量有标签文本有监督微调” 范式&#xff1b;模型架构是基于 Transformer 的叠加解码器&#xff08;掩码自注意…

分布式与一致性协议之Raft算法与一致哈希算法(一)

Raft算法 Raft与一致性 有很多人把Raft算法当成一致性算法&#xff0c;其实它不是一致性算法而是共识算法&#xff0c;是一个Multi-Paxos算法&#xff0c;实现的是如何就一系列值达成共识。并且&#xff0c;Raft算法能容忍少数节点的故障。虽然Raft算法能实现强一致性&#x…