YOLOv8 训练自己的分割数据集

之前写过一篇 使用YOLOv8训练自己的【目标检测】数据集-【收集数据集】-【标注数据集】-【划分数据集】-【配置训练环境】-【训练模型】-【评估模型】-【导出模型】,里面带大家整个流程走过一遍了,

这篇文章我们来介绍如何使用 YOLOv8 训练分割数据集

这里我会讲解分割数据集的格式,就不带大家标注了,因为标注分割数据集真的太麻烦了。。


文章目录

    • 1. 数据格式
    • 2. 配置环境
    • 3. 训练模型
    • 4. 评估模型
    • 5. 推理模型
    • 6. 分割怎么改进


1. 数据格式

我们先看下官方给我们提供的分割数据集示例,下载地址在这里:https://ultralytics.com/assets/coco8-seg.zip

打开后是这样子的

在这里插入图片描述

我们先读下 README.md

Ultralytics COCO8-seg 数据集Ultralytics COCO8-seg 是一个小型但多才多艺的实例分割数据集,由 COCO train 2017 集的前 8 张图像组成,其中 4 张用于训练,4 张用于验证。
该数据集非常适用于测试和调试分割模型,或者尝试新的检测方法。有了 8 张图像,它足够小,易于管理,同时又足够多样,可以用于测试训练流程是否存在错误,并在训练更大数据集之前作为健全性检查。此数据集旨在与 Ultralytics YOLOv8 一起使用。

数据集的结构就是下面这样的,图片没有什么可说的,主要说下标签文件,

coco8-seg├─images│  ├─train│  └─val└─labels├─train└─val

随便点开一个我们就会发现,相较于规范的检测任务,分割任务的标签显得比较的复杂,

在这里插入图片描述

我这里给大家写了一个小脚本,可以将对应的标签和图片输入进去,得到可视化结果,

请添加图片描述
看到这里大家可能也猜出来标签的含义了,每行的第一个数字表示类别的标识符,后续的数字表示一个由 x x x y y y 坐标组成的序列,代表一个分割的多边形或轮廓,这个多边形由这些坐标点依次连接而成。

22 0.00746875 0.0539294 0.117891 0.0921412 0.231297 0.110118 ......

第一个数字 22 22 22 是类别标识符。
后续的数字是 x x x y y y 坐标的交替序列,表示分割多边形的各个顶点。


可视化代码:

# by https://blog.csdn.net/weixin_43694096
import cv2
import numpy as npdef restore_masks_to_image(mask_data, image_path, output_path):# 读取图像img = cv2.imread(image_path)# 将掩码数据还原到图像上for mask in mask_data:values = list(map(float, mask.split()))class_id = int(values[0])mask_values = values[1:]# 将掩码数据转换为NumPy数组mask_array = np.array(mask_values, dtype=np.float32).reshape((int(len(mask_values) / 2), 2))# 将相对于图像大小的百分比转换为具体坐标值mask_array[:, 0] *= img.shape[1]  # 宽度mask_array[:, 1] *= img.shape[0]  # 高度# 将坐标值转换为整数mask_array = mask_array.astype(np.int32)# 在图像上绘制掩码cv2.polylines(img, [mask_array], isClosed=True, color=(0, 255, 0), thickness=2)# 在图像上绘制每个坐标点for point in mask_array:cv2.circle(img, tuple(point), 3, (255, 0, 0), -1)  # -1 表示填充圆# 保存带有掩码和坐标点的图像cv2.imwrite(output_path, img)if __name__ == "__main__":mask_data = ["22 0.00746875 0.0539294 0.117891 0.0921412 0.231297 0.110118 0.2895 0.0674118 0.331281 0.0472 0.3865 0.0696706 0.423813 0.0943765 0.446188 0.105624 0.467078 0.1528 0.517813 0.182024 0.577516 0.253929 0.658094 0.379765 0.690922 0.532588 0.687937 0.6 0.650625 0.555059 0.658094 0.644941 0.668547 0.755059 0.676 0.838212 0.658094 0.894376 0.613328 0.925835 0.589453 0.914612 0.590938 0.856188 0.552141 0.791012 0.523781 0.725835 0.528266 0.633718 0.498422 0.577529 0.444703 0.505624 0.407391 0.505624 0.395453 0.541576 0.417844 0.591012 0.450672 0.642706 0.456641 0.642706 0.461109 0.725835 0.458125 0.786518 0.450672 0.853929 0.444703 0.898871 0.401422 0.869671 0.411875 0.815741 0.423813 0.734824 0.425297 0.694376 0.361125 0.608988 0.316359 0.588753 0.280547 0.703365 0.271594 0.757294 0.261141 0.829224 0.268609 0.869671 0.277562 0.901129 0.250703 0.937082 0.222344 0.939318 0.231297 0.901129 0.222344 0.844941 0.238766 0.7236 0.246219 0.642706 0.271594 0.510118 0.182062 0.507859 0.0999844 0.525835 0.0208906 0.494376 0.0015 0.0516941"]image_path = "000000000034.jpg"output_path = "000000000034_out.jpg"restore_masks_to_image(mask_data, image_path, output_path)

2. 配置环境

代码地址:https://github.com/ultralytics/ultralytics

首先我们要下载源码,如果你会使用 git 工具,请直接拉取最新的代码。

git clone https://github.com/ultralytics/ultralytics.git

基础不好的同学,请使用我上传的文件,或手动下载代码。

这里我想强调下环境的配置,如果你是新手,请使用如下的指令安装,切记不要使用 pip install ultralytics 这条指令!

这样可以避免你遇到我教程外的错误。

cd ultralytics
pip install -r requirements.txt -i https://pypi.tuna.tsinghua.edu.cn/simple

3. 训练模型

下载好后,我们到这个路径下,ultralytics/ultralytics/cfg/datasets ,在这里我们可以看到 coco8-seg.yaml ,这个文件就是我们导入数据集的关键文件,

我这里使用官方提供的文件,所以不需要太多的更改,如果大家使用自己的数据集,那需要对应的改下里面的内容,

在这里插入图片描述

在这里插入图片描述

这个文件重要的地方有几处,

  • path 代表的根目录的路径
  • train 代表的是训练集图片位置
  • val 代表验证集图片位置
  • test 代表测试集图片位置
  • names 代表数据类别
  • download 代表下载地址,这个我们可以忽略掉

这部分要说的就是这么多,和检测任务没有区别。


训练过程和检测差别也不大,就是模型和数据集yaml的区别,接下来我们要新建一个 train-seg.py 文件,内容直接复制我的,所有的参数我写到下面了,大家对应的看就好了,

最重要的就是 yolov8-seg.yaml 路径和 coco8-seg.yaml 的路径,这里推荐大家写绝对路径,避免出错,

改好了这两个位置直接运行这个文件就开始训练了。

from ultralytics import YOLOif __name__ == '__main__':# 加载模型model = YOLO(r'yolov8-seg.yaml')  # 不使用预训练权重训练# model = YOLO(r'yolov8-seg.yaml').load("yolov8n-seg.pt")  # 使用预训练权重训练# 训练参数 ----------------------------------------------------------------------------------------------model.train(data=r'coco8-seg.yaml',epochs=300,  # (int) 训练的周期数patience=50,  # (int) 等待无明显改善以进行早期停止的周期数batch=32,  # (int) 每批次的图像数量(-1 为自动批处理)imgsz=640,  # (int) 输入图像的大小,整数或w,hsave=True,  # (bool) 保存训练检查点和预测结果save_period=-1,  # (int) 每x周期保存检查点(如果小于1则禁用)cache=False,  # (bool) True/ram、磁盘或False。使用缓存加载数据device='',  # (int | str | list, optional) 运行的设备,例如 cuda device=0 或 device=0,1,2,3 或 device=cpuworkers=8,  # (int) 数据加载的工作线程数(每个DDP进程)project='runs/train',  # (str, optional) 项目名称name='exp',  # (str, optional) 实验名称,结果保存在'project/name'目录下exist_ok=False,  # (bool) 是否覆盖现有实验pretrained=True,  # (bool | str) 是否使用预训练模型(bool),或从中加载权重的模型(str)optimizer='SGD',  # (str) 要使用的优化器,选择=[SGD,Adam,Adamax,AdamW,NAdam,RAdam,RMSProp,auto]verbose=True,  # (bool) 是否打印详细输出seed=0,  # (int) 用于可重复性的随机种子deterministic=True,  # (bool) 是否启用确定性模式single_cls=False,  # (bool) 将多类数据训练为单类rect=False,  # (bool) 如果mode='train',则进行矩形训练,如果mode='val',则进行矩形验证cos_lr=False,  # (bool) 使用余弦学习率调度器close_mosaic=0,  # (int) 在最后几个周期禁用马赛克增强resume=False,  # (bool) 从上一个检查点恢复训练amp=True,  # (bool) 自动混合精度(AMP)训练,选择=[True, False],True运行AMP检查fraction=1.0,  # (float) 要训练的数据集分数(默认为1.0,训练集中的所有图像)profile=False,  # (bool) 在训练期间为记录器启用ONNX和TensorRT速度freeze= None,  # (int | list, 可选) 在训练期间冻结前 n 层,或冻结层索引列表。# 分割overlap_mask=True,  # (bool) 训练期间是否应重叠掩码(仅适用于分割训练)mask_ratio=4,  # (int) 掩码降采样比例(仅适用于分割训练)# 分类dropout=0.0,  # (float) 使用丢弃正则化(仅适用于分类训练)# 超参数 ----------------------------------------------------------------------------------------------lr0=0.01,  # (float) 初始学习率(例如,SGD=1E-2,Adam=1E-3)lrf=0.01,  # (float) 最终学习率(lr0 * lrf)momentum=0.937,  # (float) SGD动量/Adam beta1weight_decay=0.0005,  # (float) 优化器权重衰减 5e-4warmup_epochs=3.0,  # (float) 预热周期(分数可用)warmup_momentum=0.8,  # (float) 预热初始动量warmup_bias_lr=0.1,  # (float) 预热初始偏置学习率box=7.5,  # (float) 盒损失增益cls=0.5,  # (float) 类别损失增益(与像素比例)dfl=1.5,  # (float) dfl损失增益pose=12.0,  # (float) 姿势损失增益kobj=1.0,  # (float) 关键点对象损失增益label_smoothing=0.0,  # (float) 标签平滑(分数)nbs=64,  # (int) 名义批量大小hsv_h=0.015,  # (float) 图像HSV-Hue增强(分数)hsv_s=0.7,  # (float) 图像HSV-Saturation增强(分数)hsv_v=0.4,  # (float) 图像HSV-Value增强(分数)degrees=0.0,  # (float) 图像旋转(+/- deg)translate=0.1,  # (float) 图像平移(+/- 分数)scale=0.5,  # (float) 图像缩放(+/- 增益)shear=0.0,  # (float) 图像剪切(+/- deg)perspective=0.0,  # (float) 图像透视(+/- 分数),范围为0-0.001flipud=0.0,  # (float) 图像上下翻转(概率)fliplr=0.5,  # (float) 图像左右翻转(概率)mosaic=1.0,  # (float) 图像马赛克(概率)mixup=0.0,  # (float) 图像混合(概率)copy_paste=0.0,  # (float) 分割复制-粘贴(概率))

开始训练时会打印出模型的参数量,计算量,结构信息。

在这里插入图片描述

训练结束后会打印出各种指标,包括 PRmAPSpeed等。

在这里插入图片描述


4. 评估模型

评估模型时有个同学问的最多的问题就是测试集的精度怎么看,

这里因为我们没有划分测试集,所以没法看测试集的指标,但是如果你划分了测试集,

直接使用我给的脚本,将 split 设置为 test ,这样就会打印出测试集的指标。

from ultralytics import YOLOif __name__ == '__main__':# 加载模型model = YOLO(r'yolov8n.pt')  # 验证模型model.val(val=True,  # (bool) 在训练期间进行验证/测试data=r'coco128.yaml',split='val',  # (str) 用于验证的数据集拆分,例如'val'、'test'或'train'batch=1,  # (int) 每批的图像数量(-1 为自动批处理)imgsz=640,  # 输入图像的大小,可以是整数或w,hdevice='',  # 运行的设备,例如 cuda device=0 或 device=0,1,2,3 或 device=cpuworkers=8,  # 数据加载的工作线程数(每个DDP进程)save_json=False,  # 保存结果到JSON文件save_hybrid=False,  # 保存标签的混合版本(标签 + 额外的预测)conf=0.001,  # 检测的目标置信度阈值(默认为0.25用于预测,0.001用于验证)iou=0.6,  # 非极大值抑制 (NMS) 的交并比 (IoU) 阈值project='runs/val',  # 项目名称(可选)name='exp',  # 实验名称,结果保存在'project/name'目录下(可选)max_det=300,  # 每张图像的最大检测数half=False,  # 使用半精度 (FP16)dnn=False,  # 使用OpenCV DNN进行ONNX推断plots=True,  # 在训练/验证期间保存图像)

5. 推理模型

推理使用我给的如下脚本就可以实现了。

import sys
sys.path.append("/root/ultralytics")
from ultralytics import YOLOif __name__ == '__main__':# 加载模型model = YOLO(r'/root/ultralytics/ultralytics/yolov8n-seg.pt')  # YOLOv8n模型model.predict(source=r'/root/ultralytics/ultralytics/assets',save=True,  # 保存预测结果imgsz=640,  # 输入图像的大小,可以是整数或w,hconf=0.25,  # 用于检测的目标置信度阈值(默认为0.25,用于预测,0.001用于验证)iou=0.45,  # 非极大值抑制 (NMS) 的交并比 (IoU) 阈值show=False,  # 如果可能的话,显示结果project='runs/predict',  # 项目名称(可选)name='exp',  # 实验名称,结果保存在'project/name'目录下(可选)save_txt=False,  # 保存结果为 .txt 文件save_conf=True,  # 保存结果和置信度分数save_crop=False,  # 保存裁剪后的图像和结果show_labels=True,  # 在图中显示目标标签show_conf=True,  # 在图中显示目标置信度分数vid_stride=1,  # 视频帧率步长line_width=3,  # 边界框线条粗细(像素)visualize=False,  # 可视化模型特征augment=False,  # 对预测源应用图像增强agnostic_nms=False,  # 类别无关的NMSretina_masks=False,  # 使用高分辨率的分割掩码boxes=True,  # 在分割预测中显示边界框)

在这里插入图片描述
在这里插入图片描述


6. 分割怎么改进

有同学问分割怎么改进,其实和检测任务一样的,唯一区别就是下面红框中的区别,

是用我给的改进和脚本很容易上手改进分割任务~

在这里插入图片描述

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.hqwc.cn/news/217551.html

如若内容造成侵权/违法违规/事实不符,请联系编程知识网进行投诉反馈email:809451989@qq.com,一经查实,立即删除!

相关文章

JAVA小游戏“简易版王者荣耀”

第一步是创建项目 项目名自拟 第二部创建个包名 来规范class 然后是创建类 GameFrame 运行类 package com.sxt;import java.awt.Graphics; import java.awt.Image; import java.awt.Toolkit; import java.awt.event.ActionEvent; import java.awt.event.ActionListener; im…

Leetcode—55.跳跃游戏【中等】

2023每日刷题&#xff08;四十&#xff09; Leetcode—55.跳跃游戏 贪心法实现代码 #define MAX(a, b) ((a > b)? (a): (b))bool canJump(int* nums, int numsSize) {int k 0;for(int i 0; i < numsSize; i) {if(i > k) {return false;}k MAX(k, i nums[i]);}r…

借助 XEOS V6, 农牧龙头企业实现原有存储的高效在线替换

面对旧有存储系统的应用不足&#xff0c;某大型现代农牧龙头企业采用了星辰天合的对象存储 XEOS V6 方案&#xff0c; 该方案以其卓越的技术架构和同城双活异地灾备的解决方案完整性&#xff0c;在无缝高效完成系统替换的同时&#xff0c;可以极大地提升系统的灵活性和业务的连…

自定义精美商品分类列表组件 侧边栏商品分类组件 category组件(适配vue3)

随着技术的发展&#xff0c;开发的复杂度也越来越高&#xff0c;传统开发方式将一个系统做成了整块应用&#xff0c;经常出现的情况就是一个小小的改动或者一个小功能的增加可能会引起整体逻辑的修改&#xff0c;造成牵一发而动全身。通过组件化开发&#xff0c;可以有效实现单…

AT89S52单片机智能寻迹小车自动红外避障趋光检测发声发光设计

wx供重浩&#xff1a;创享日记 对话框发送&#xff1a;寻迹 获取完整说明报告源程序数据 小车具有以下几个功能&#xff1a;自动避障功能&#xff1b;寻迹功能&#xff08;按路面的黑色轨道行驶&#xff09;&#xff1b;趋光功能&#xff08;寻找前方的点光源并行驶到位&…

枚举与应用

作者简介&#xff1a;大家好&#xff0c;我是smart哥&#xff0c;前中兴通讯、美团架构师&#xff0c;现某互联网公司CTO 联系qq&#xff1a;184480602&#xff0c;加我进群&#xff0c;大家一起学习&#xff0c;一起进步&#xff0c;一起对抗互联网寒冬 枚举简介 枚举是一种特…

ZKP11.4 Use CI to instantiate Fiat-Shamir

ZKP学习笔记 ZK-Learning MOOC课程笔记 Lecture 11: From Practice to Theory (Guest Lecturer: Alex Lombardi) 11.4 Use CI to instantiate Fiat-Shamir Avoid Bad Challenges Def: Given false claim x x x and a first message α \alpha α, a challenge β \beta …

YOLO目标检测——二维码检测数据集下载分享【含对应voc、coco和yolo三种格式标签】

实际项目应用&#xff1a;二维码识别、追踪与管理系统数据集说明&#xff1a;二维码检测数据集&#xff0c;真实场景的高质量图片数据&#xff0c;数据场景丰富标签说明&#xff1a;使用lableimg标注软件标注&#xff0c;标注框质量高&#xff0c;含voc(xml)、coco(json)和yolo…

Python 安装Vue依赖包发生异常:npm ERR! notsup Required: {“node“:“^18.17.0 || >=20.5.0“}

异常&#xff1a; 原因&#xff1a;node和npm要求升级为高版本 解决&#xff1a;重新安装node环境 &#xff08;1&#xff09; 官网下载Node.js &#xff08;2&#xff09;双击安装node.js &#xff08;3&#xff09;运行查看

使用信息面板沟通研发工作

凌鲨里面的内容面板里面有专门针对研发团队的白板功能&#xff0c;它可以把文档&#xff0c;图片&#xff0c;软件设计&#xff0c;需求&#xff0c;任务/缺陷等相关研发要素串接起来。 使用 你还可以调整背景颜色。 引用项目内数据 点击面板中的连接会在右侧打开对应内容

Android : Intent(意图)_页面跳转、传递数据_简单应用

示例图&#xff1a; MainActivity.java package com.example.myintent;import androidx.activity.result.ActivityResultCallback; import androidx.activity.result.ActivityResultLauncher; import androidx.activity.result.contract.ActivityResultContract; import andro…

knime 中没有column expressions,怎么下载

knime 中没有column expressions&#xff0c;怎么下载 1、打开view&#xff0c;然后找到knime hub&#xff0c;column expression 2、往里面拖动&#xff0c;就可以安装了 3、然后会出现重启&#xff0c;搜索就可以出现啦