您现在的位置是:首页 > 技术教程 正文

YOLO | 用YOLOv7训练自己的数据集(超详细版)

admin 阅读: 2024-03-24
后台-插件-广告管理-内容页头部广告(手机)

一、环境设置

本文环境设置:Ubuntu (docker) pytorch-gpu

1.远程Ubuntu新建一个新的docker 容器

以下命令是创建一个名称为torch_yolo的gpu容器。如果没有docker可省略。

docker run -it -e /home/elena/workspace:/home/elena/workspace --gpus all --ipc host --net host --name torch_yolo pytorch/pytorch:1.13.1-cuda11.6-cudnn8-devel /bin/bash

更新并安装git,wget命令

  1. apt-get update
  2. apt-get install git
  3. apt-get install wget
  4. apt-get update

2.(可选择)在Ubuntu上直接运行

省略docker的部分,就是Ubuntu上运行的操作(下载的库与docker稍微有些差异)。

3.(可选择)在Windows上运行

在github上下载压缩包,然后解压,配置数据集然后训练。(可参考我之前做过的YOLOv5流程)

二.克隆项目配置库

git clone https://github.com/WongKinYiu/yolov7

打开项目下载要求的库:

  1. cd yolov7
  2. pip install -r requirements.txt

安装docker版本的OpenCV,直接安装pip install opencv-python会出错

pip install opencv-python-headless

下载YOLOV7的权重

wget https://github.com/WongKinYiu/yolov7/releases/download/v0.1/yolov7.pt

下载YOLOV7的训练权重

wget https://github.com/WongKinYiu/yolov7/releases/download/v0.1/yolov7_training.pt

新建一个权重文件夹,把上述文件移到权重文件夹下

  1. mkdir weights
  2. cp yolov7.pt weights/
  3. cp yolov7_training.pt weights/

下载好了之后,得到两个权重文件。接下来,就是直接进行测试了。现在我们在./yolov7/这个工作路径下,输入如下命令.

检测代码

python detect.py --weights weights/yolov7.pt --source inference/images

(如果出错,可参考【PS3】)

结果

如果得到如下的运行结果,则说明运行成功,预测的图片被保存在了/runs/detect/exp/文件夹下

参数说明

  1. --weights weight/yolov7.pt # 这个参数是把已经训练好的模型路径传进去,就是刚刚下载的文件
  2. --source inference/images # 传进去要预测的图片

输出的结果如上图~就配置好环境啦!!!

三、训练自己的数据集超详细设置

1. 准备工作

在data文件夹下新建datasets文件夹,把自己的数据都放进这个文件夹里进行统一管理。训练数据用的是yolo数据格式,不过多了.txt文件,是每个图片的路径,后面会具体介绍。

2. 准备yolo格式的数据

2.1. 创建文件夹

mkdir datasets

得到如下的结果

2.2. 准备yolo格式数据集

自己的数据集可能格式不同操作不同。

我的数据集是一个文件夹下,子目录文件名是类别名,一个类别名下有放照片,一个类别名json名下放照片对应的json文件。遍历文件夹,移动代码

  1. #move jsonfiles
  2. #OriPath = '/workspace/data/train' #需要遍历的文件夹
  3. OriPath="/workspace/data/val"
  4. key='json'
  5. for root, dirs, files in os.walk(OriPath, topdown=False):
  6. for name in files:
  7. #print(os.path.join(root, name))
  8. filepath=os.path.join(root, name)
  9. path1="/workspace/data/jsonfile" #存放文件的文件夹
  10. #path1="/workspace/data/val" #存放文件的文件夹
  11. movepath=os.path.join(path1,name)
  12. if key in name:
  13. #shutil.copyfile(filepath,movepath)
  14. shutil.move(filepath,movepath)
  15. #move images
  16. OriPath = '/workspace/data/train' #需要遍历的文件夹
  17. #OriPath="/workspace/data/tests"
  18. key='.jpg'
  19. for root, dirs, files in os.walk(OriPath, topdown=False):
  20. for name in files:
  21. #print(os.path.join(root, name))
  22. filepath=os.path.join(root, name)
  23. path1="/workspace/data/images" #存放文件的文件夹
  24. movepath=os.path.join(path1,name)
  25. if key in name:
  26. #shutil.copyfile(filepath,movepath)
  27. shutil.move(filepath,movepath)

*只需要修改路径名称,注意为了节省空间是移动,不是复制,移动后原文件夹下的文件就为空。

我的处理方法是,遍历文件夹下所有照片移动到image文件夹,遍历文件夹下所有json文件到label文件夹。

现在label下全部是批量.json文件,需要将json文件提取yolo所需要的四点信息,代码如下

json2txt.py

  1. import json
  2. import os
  3. import time
  4. from pathlib import Path
  5. def json2txt(path_json, path_txt):
  6. with open(path_json, 'r', encoding='utf-8') as path_json:
  7. jsonx = json.load(path_json)
  8. filename = path_txt.split(os.sep)[-1]
  9. with open(path_txt, 'w+') as ftxt:
  10. for shape in jsonx:
  11. try:
  12. x = shape['Point(x,y)'].split(',')[0]
  13. y = shape['Point(x,y)'].split(',')[1]
  14. label = shape["Label"]
  15. w = shape["W"]
  16. h = shape["H"]
  17. strxy = ' '
  18. ftxt.writelines(str(label) + strxy + str(x)+ strxy + str(y) + strxy + str(w) + strxy + str(h) + "\n")
  19. except:
  20. print(path_json)
  21. continue
  22. # Input json file path
  23. jpath = Path('/workspace/yolo/data/dataset/f001json')
  24. # Output txt file path
  25. dir_txt = '/workspace/yolo/data/dataset/labels/'
  26. if not os.path.exists(dir_txt):
  27. os.makedirs(dir_txt)
  28. for p in jpath.rglob("*.json"):
  29. path_txt = dir_txt + os.sep + str(p).split(os.sep)[-1].replace('.json', '.txt')
  30. json2txt(p, path_txt)

*需要注意的是自己json文件内的数值是归一化后的值还是没做归一化的值!我的代码是x,y,w,h是归一化后的值。

其中images和labels的名称需要一一对应,labels为.txt文件

label格式为五个归一化的数据:label、x_center、y_center、width、height

label_index :为标签名称在标签数组中的索引,下标从 0 开始。

x_center:标记框中心点的 x 坐标,数值是原始中心点 x 坐标除以 图宽 后的结果。

y_center:标记框中心点的 y 坐标,数值是原始中心点 y 坐标除以 图高 后的结果。

width:标记框的 宽,数值为 原始标记框的 宽 除以 图宽 后的结果。

height:标记框的 高,数值为 原始标记框的 高 除以 图高 后的结果。

输出后txt文件示例如图

2.3.分割为train,val和test文件夹,并生成自己文件的train.txt,val.txt和test.txt

YOLO需要的格式如图:自己的数据集分割,数据处理后得到yolo格式数据集,存放格式如下。

接下来,就是生成 train.txt,test.txt和val.txt。train.txt存放了所有训练图片的路径,val.txt则是存放了所有验证图片的路径,test.txt存放了所有测试图片的路径,(代码统计原数据集的长度,按照比例进行分割)

  1. # insanena
  2. import shutil
  3. import random
  4. import os
  5. # 原始路径
  6. image_original_path = "/workspace/yolo/data/dataset/food38img/"
  7. label_original_path = "/workspace/yolo/data/dataset/labels/"
  8. cur_path = os.getcwd()
  9. # 训练集路径
  10. train_image_path = os.path.join(cur_path, "/workspace/yolo/data/dataset/food38yolo/images/train/")
  11. train_label_path = os.path.join(cur_path, "/workspace/yolo/data/dataset/food38yolo/labels/train/")
  12. # 验证集路径
  13. val_image_path = os.path.join(cur_path, "/workspace/yolo/data/dataset/food38yolo/images/val/")
  14. val_label_path = os.path.join(cur_path, "/workspace/yolo/data/dataset/food38yolo/labels/val/")
  15. # 测试集路径
  16. test_image_path = os.path.join(cur_path, "/workspace/yolo/data/dataset/food38yolo/images/test/")
  17. test_label_path = os.path.join(cur_path, "/workspace/yolo/data/dataset/food38yolo/labels/test/")
  18. # 训练集目录
  19. list_train = os.path.join(cur_path, "/workspace/yolo/data/dataset/food38yolo/train.txt")
  20. list_val = os.path.join(cur_path, "/workspace/yolo/data/dataset/food38yolo/val.txt")
  21. list_test = os.path.join(cur_path, "/workspace/yolo/data/dataset/food38yolo/test.txt")
  22. train_percent = 0.8
  23. val_percent = 0.1
  24. test_percent = 0.1
  25. def del_file(path):
  26. for i in os.listdir(path):
  27. file_data = path + "\\" + i
  28. os.remove(file_data)
  29. def mkdir():
  30. if not os.path.exists(train_image_path):
  31. os.makedirs(train_image_path)
  32. else:
  33. del_file(train_image_path)
  34. if not os.path.exists(train_label_path):
  35. os.makedirs(train_label_path)
  36. else:
  37. del_file(train_label_path)
  38. if not os.path.exists(val_image_path):
  39. os.makedirs(val_image_path)
  40. else:
  41. del_file(val_image_path)
  42. if not os.path.exists(val_label_path):
  43. os.makedirs(val_label_path)
  44. else:
  45. del_file(val_label_path)
  46. if not os.path.exists(test_image_path):
  47. os.makedirs(test_image_path)
  48. else:
  49. del_file(test_image_path)
  50. if not os.path.exists(test_label_path):
  51. os.makedirs(test_label_path)
  52. else:
  53. del_file(test_label_path)
  54. def clearfile():
  55. if os.path.exists(list_train):
  56. os.remove(list_train)
  57. if os.path.exists(list_val):
  58. os.remove(list_val)
  59. if os.path.exists(list_test):
  60. os.remove(list_test)
  61. def main():
  62. mkdir()
  63. clearfile()
  64. file_train = open(list_train, 'w')
  65. file_val = open(list_val, 'w')
  66. file_test = open(list_test, 'w')
  67. total_txt = os.listdir(label_original_path)
  68. num_txt = len(total_txt)
  69. list_all_txt = range(num_txt)
  70. num_train = int(num_txt * train_percent)
  71. num_val = int(num_txt * val_percent)
  72. num_test = num_txt - num_train - num_val
  73. train = random.sample(list_all_txt, num_train)
  74. # train从list_all_txt取出num_train个元素
  75. # 所以list_all_txt列表只剩下了这些元素
  76. val_test = [i for i in list_all_txt if not i in train]
  77. # 再从val_test取出num_val个元素,val_test剩下的元素就是test
  78. val = random.sample(val_test, num_val)
  79. print("TrainNum:{}, ValNum:{}, TestNum:{}".format(len(train), len(val), len(val_test) - len(val)))
  80. for i in list_all_txt:
  81. name = total_txt[i][:-4]
  82. srcImage = image_original_path + name + '.jpg'
  83. srcLabel = label_original_path + name + ".txt"
  84. if i in train:
  85. dst_train_Image = train_image_path + name + '.jpg'
  86. dst_train_Label = train_label_path + name + '.txt'
  87. shutil.copyfile(srcImage, dst_train_Image)
  88. shutil.copyfile(srcLabel, dst_train_Label)
  89. file_train.write(dst_train_Image + '\n')
  90. elif i in val:
  91. dst_val_Image = val_image_path + name + '.jpg'
  92. dst_val_Label = val_label_path + name + '.txt'
  93. shutil.copyfile(srcImage, dst_val_Image)
  94. shutil.copyfile(srcLabel, dst_val_Label)
  95. file_val.write(dst_val_Image + '\n')
  96. else:
  97. dst_test_Image = test_image_path + name + '.jpg'
  98. dst_test_Label = test_label_path + name + '.txt'
  99. shutil.copyfile(srcImage, dst_test_Image)
  100. shutil.copyfile(srcLabel, dst_test_Label)
  101. file_test.write(dst_test_Image + '\n')
  102. file_train.close()
  103. file_val.close()
  104. file_test.close()
  105. if __name__ == "__main__":
  106. main()

train.txt文件存放的是图片路径

2.4.制作自己的配置文件

一共修改俩个配置文件

一个是yolov7-mydataset.yaml,位置在项目yolov7/cfg/training下,然后复制yolov7.yaml改为yolov7-mydataset.yaml,然后修改类别数,就得到一个新的属于自己的配置文件。

(在这里我的数据集是food38,类别数是38个)

如图所示

代码如下(可以直接复制)

  1. # parameters
  2. nc: 38 # number of classes
  3. depth_multiple: 1.0 # model depth multiple
  4. width_multiple: 1.0 # layer channel multiple
  5. # anchors
  6. anchors:
  7. - [12,16, 19,36, 40,28] # P3/8
  8. - [36,75, 76,55, 72,146] # P4/16
  9. - [142,110, 192,243, 459,401] # P5/32
  10. # yolov7 backbone
  11. backbone:
  12. # [from, number, module, args]
  13. [[-1, 1, Conv, [32, 3, 1]], # 0
  14. [-1, 1, Conv, [64, 3, 2]], # 1-P1/2
  15. [-1, 1, Conv, [64, 3, 1]],
  16. [-1, 1, Conv, [128, 3, 2]], # 3-P2/4
  17. [-1, 1, Conv, [64, 1, 1]],
  18. [-2, 1, Conv, [64, 1, 1]],
  19. [-1, 1, Conv, [64, 3, 1]],
  20. [-1, 1, Conv, [64, 3, 1]],
  21. [-1, 1, Conv, [64, 3, 1]],
  22. [-1, 1, Conv, [64, 3, 1]],
  23. [[-1, -3, -5, -6], 1, Concat, [1]],
  24. [-1, 1, Conv, [256, 1, 1]], # 11
  25. [-1, 1, MP, []],
  26. [-1, 1, Conv, [128, 1, 1]],
  27. [-3, 1, Conv, [128, 1, 1]],
  28. [-1, 1, Conv, [128, 3, 2]],
  29. [[-1, -3], 1, Concat, [1]], # 16-P3/8
  30. [-1, 1, Conv, [128, 1, 1]],
  31. [-2, 1, Conv, [128, 1, 1]],
  32. [-1, 1, Conv, [128, 3, 1]],
  33. [-1, 1, Conv, [128, 3, 1]],
  34. [-1, 1, Conv, [128, 3, 1]],
  35. [-1, 1, Conv, [128, 3, 1]],
  36. [[-1, -3, -5, -6], 1, Concat, [1]],
  37. [-1, 1, Conv, [512, 1, 1]], # 24
  38. [-1, 1, MP, []],
  39. [-1, 1, Conv, [256, 1, 1]],
  40. [-3, 1, Conv, [256, 1, 1]],
  41. [-1, 1, Conv, [256, 3, 2]],
  42. [[-1, -3], 1, Concat, [1]], # 29-P4/16
  43. [-1, 1, Conv, [256, 1, 1]],
  44. [-2, 1, Conv, [256, 1, 1]],
  45. [-1, 1, Conv, [256, 3, 1]],
  46. [-1, 1, Conv, [256, 3, 1]],
  47. [-1, 1, Conv, [256, 3, 1]],
  48. [-1, 1, Conv, [256, 3, 1]],
  49. [[-1, -3, -5, -6], 1, Concat, [1]],
  50. [-1, 1, Conv, [1024, 1, 1]], # 37
  51. [-1, 1, MP, []],
  52. [-1, 1, Conv, [512, 1, 1]],
  53. [-3, 1, Conv, [512, 1, 1]],
  54. [-1, 1, Conv, [512, 3, 2]],
  55. [[-1, -3], 1, Concat, [1]], # 42-P5/32
  56. [-1, 1, Conv, [256, 1, 1]],
  57. [-2, 1, Conv, [256, 1, 1]],
  58. [-1, 1, Conv, [256, 3, 1]],
  59. [-1, 1, Conv, [256, 3, 1]],
  60. [-1, 1, Conv, [256, 3, 1]],
  61. [-1, 1, Conv, [256, 3, 1]],
  62. [[-1, -3, -5, -6], 1, Concat, [1]],
  63. [-1, 1, Conv, [1024, 1, 1]], # 50
  64. ]
  65. # yolov7 head
  66. head:
  67. [[-1, 1, SPPCSPC, [512]], # 51
  68. [-1, 1, Conv, [256, 1, 1]],
  69. [-1, 1, nn.Upsample, [None, 2, 'nearest']],
  70. [37, 1, Conv, [256, 1, 1]], # route backbone P4
  71. [[-1, -2], 1, Concat, [1]],
  72. [-1, 1, Conv, [256, 1, 1]],
  73. [-2, 1, Conv, [256, 1, 1]],
  74. [-1, 1, Conv, [128, 3, 1]],
  75. [-1, 1, Conv, [128, 3, 1]],
  76. [-1, 1, Conv, [128, 3, 1]],
  77. [-1, 1, Conv, [128, 3, 1]],
  78. [[-1, -2, -3, -4, -5, -6], 1, Concat, [1]],
  79. [-1, 1, Conv, [256, 1, 1]], # 63
  80. [-1, 1, Conv, [128, 1, 1]],
  81. [-1, 1, nn.Upsample, [None, 2, 'nearest']],
  82. [24, 1, Conv, [128, 1, 1]], # route backbone P3
  83. [[-1, -2], 1, Concat, [1]],
  84. [-1, 1, Conv, [128, 1, 1]],
  85. [-2, 1, Conv, [128, 1, 1]],
  86. [-1, 1, Conv, [64, 3, 1]],
  87. [-1, 1, Conv, [64, 3, 1]],
  88. [-1, 1, Conv, [64, 3, 1]],
  89. [-1, 1, Conv, [64, 3, 1]],
  90. [[-1, -2, -3, -4, -5, -6], 1, Concat, [1]],
  91. [-1, 1, Conv, [128, 1, 1]], # 75
  92. [-1, 1, MP, []],
  93. [-1, 1, Conv, [128, 1, 1]],
  94. [-3, 1, Conv, [128, 1, 1]],
  95. [-1, 1, Conv, [128, 3, 2]],
  96. [[-1, -3, 63], 1, Concat, [1]],
  97. [-1, 1, Conv, [256, 1, 1]],
  98. [-2, 1, Conv, [256, 1, 1]],
  99. [-1, 1, Conv, [128, 3, 1]],
  100. [-1, 1, Conv, [128, 3, 1]],
  101. [-1, 1, Conv, [128, 3, 1]],
  102. [-1, 1, Conv, [128, 3, 1]],
  103. [[-1, -2, -3, -4, -5, -6], 1, Concat, [1]],
  104. [-1, 1, Conv, [256, 1, 1]], # 88
  105. [-1, 1, MP, []],
  106. [-1, 1, Conv, [256, 1, 1]],
  107. [-3, 1, Conv, [256, 1, 1]],
  108. [-1, 1, Conv, [256, 3, 2]],
  109. [[-1, -3, 51], 1, Concat, [1]],
  110. [-1, 1, Conv, [512, 1, 1]],
  111. [-2, 1, Conv, [512, 1, 1]],
  112. [-1, 1, Conv, [256, 3, 1]],
  113. [-1, 1, Conv, [256, 3, 1]],
  114. [-1, 1, Conv, [256, 3, 1]],
  115. [-1, 1, Conv, [256, 3, 1]],
  116. [[-1, -2, -3, -4, -5, -6], 1, Concat, [1]],
  117. [-1, 1, Conv, [512, 1, 1]], # 101
  118. [75, 1, RepConv, [256, 3, 1]],
  119. [88, 1, RepConv, [512, 3, 1]],
  120. [101, 1, RepConv, [1024, 3, 1]],
  121. [[102,103,104], 1, IDetect, [nc, anchors]], # Detect(P3, P4, P5)
  122. ]

*只改变nc的数,也就是自己数据集的类别数(标签数)

另外一个是mydataset.yaml,位置在项目yolov7/data/mydataset下,内容如下

  1. # train and val data as 1) directory: path/images/, 2) file: path/images.txt, or 3) list: [path1/images/, path2/images/]
  2. train: /workspace/yolo/data/dataset/food38yolo/train.txt
  3. val: /workspace/yolo/data/dataset/food38yolo/val.txt
  4. test: /workspace/yolo/data/dataset/food38yolo/test.txt
  5. # number of classes
  6. nc: 38
  7. #标签名称
  8. names: ["#我有38个,这里省略"]

3. 准备训练

(我中间一共训练了俩个数据集,所以代码可能会有一点点区别,但是把修改后的文件在train.py中改下名称就可以)

train常用参数有:

  1. --weights: 预训练路径,填写'' 表示不使用预训练权重
  2. --cfg : 参数路径(./cfg/training中新建的yolov7-mydataset.yaml文件,见上文②)
  3. --data : 数据集路径(./data中新建的mydayaset.yaml文件,见上文①)
  4. --epochs : 训练轮数
  5. --batch-size : batch大小
  6. --device : 训练设备,cpu-->用cpu训练,0-->用GPU训练,0,1,2,3-->用多核GPU训练
  7. --workers: maximum number of dataloader workers
  8. --name : save to project/name

需要修改的train.py位置

  1. parser.add_argument('--cfg', type=str, default='', help='model.yaml path')
  2. parser.add_argument('--data', type=str, default='data/kf-data/dataset/food38.yaml', help='data.yaml path')

指定参数的训练命令

python train.py --workers 8 --device 0 --batch-size 32 --data data/dataset/data.yaml --img 640 640 --cfg cfg/training/yolov7.yaml --weights 'yolov7_training.pt' --name yolov7-custom --hyp data/hyp.scratch.custom.yaml

开始训练

4.训练结果

输出训练目录

参数详解

  • confusion_matrix.png 混淆矩阵图

混淆矩阵以矩阵形式将数据集中的记录按照真实的类别与分类模型预测的类别判断两个标准进行汇总。其中矩阵的行表示真实值,矩阵的列表示预测值。

TP(True Positive): 将正类预测为正类数 即正确预测,真实为0,预测也为0

FN (False Negative):将正类预测为负类 即错误预测,真实为0,预测为1

FP(False Positive):将负类预测为正类数 即错误预测, 真实为1,预测为0

TN (True Negative):将负类预测为负类数,即正确预测,真实为1,预测也为1

精确率和召回率的计算方法

精确率Precision=TP / (TP+FP), 在预测是Positive所有结果中,预测正确的比重

召回率recall=TP / (TP+FN), 在真实值为Positive的所有结果中,预测正确的比重

  • F1_curve.png

F1分数,它被定义为查准率和召回率的调和平均数

一些多分类问题的机器学习竞赛,常常将F1-score作为最终测评的方法。它是精确率和召回率的调和平均数,最大为1,最小为0。

F1-Score的值是从0到1的,1是最好,0是最差。

  • hyp.yaml 训练时的超参数

  • opt.yaml train.py中间的参数

  • P_curve.png 准确率precision和置信度confidence的关系图

  • PR_curve.png

PR曲线中的P代表的是precision(精准率),R代表的是recall(召回率),其代表的是精准率与召回率的关系,一般情况下,将recall设置为横坐标,precision设置为纵坐标。PR曲线下围成的面积即AP,所有类别AP平均值即Map.

如果PR图的其中的一个曲线A完全包住另一个学习器的曲线B,则可断言A的性能优于B,当A和B发生交叉时,可以根据曲线下方的面积大小来进行比较。一般训练结果主要观察精度和召回率波动情况(波动不是很大则训练效果较好)

Precision和Recall往往是一对矛盾的性能度量指标;及一个的值越高另一个就低一点;

提高Precision <==> 提高二分类器预测正例门槛 <==> 使得二分类器预测的正例尽可能是真实正例;

提高Recall <==> 降低二分类器预测正例门槛 <== >使得二分类器尽可能将真实的正例挑选

  • R_curve.png 召回率recall和置信度confidence之间的关系

  • results.png

Box:Box推测为GIoU损失函数均值,越小方框越准

Objectness:推测为目标检测loss均值,越小目标检测越准

Classification:推测为分类loss均值,越小分类越准

Precision:精度(找对的正类/所有找到的正类)

Recall:真实为positive的准确率,即正样本有多少被找出来了(召回了多少)。

Recall从真实结果角度出发,描述了测试集中的真实正例有多少被二分类器挑选了出来,即真实的正例有多少被该二分类器召回。

val BOX: 验证集bounding box损失

val Objectness:验证集目标检测loss均值

val classification:验证集分类loss均值,本实验为一类所以为0

mAP是用Precision和Recall作为两轴作图后围成的面积,m表示平均,@后面的数表示判定iou为正负样本的阈值,@0.5:0.95表示阈值取0.5:0.05:0.95后取均值。

mAP@.5:.95(mAP@[.5:.95])

表示在不同IoU阈值(从0.5到0.95,步长0.05)(0.5、0.55、0.6、0.65、0.7、0.75、0.8、0.85、0.9、0.95)上的平均mAP。

mAP@.5:表示阈值大于0.5的平均mAP

一般训练结果主要观察精度和召回率波动情况(波动不是很大则训练效果较好)

然后观察mAP@0.5 & mAP@0.5:0.95 评价训练结果。

  • results.txt 分别的含义是训练次数、GPU消耗、训练集边界框损失、训练集目标检测损失、训练集分类损失、训练集总损失、targets目标、输入图片大小、Precision、Recall、mAP@.5、mAP@.5:.95、验证集边界框损失、验证集目标检测损失、验证机分类损失

  • train_batch

设置的batch_size为多少,所以一次读多少张图片

  • test_batchx_labels

验证集第一轮的实际标签(只有完全训练完后才会出现test)

如果运行tensorboard

  1. activate yolov7(自己所配的环境名称)
  2. tensorboard --logdir=训练结果所在的文件夹

【总结】

  1. 第一次训练时,在ymal文件中未设置train_list.txt和val_list.txt,可以训练,未提示错误,yaml文件如下,数据是从roboflow网站上上下载好的格式(不是自己的数据集),大家有需要的可以在网站上找到需要的数据集,而且可以直接下载想要的格式。

  1. # train and val data as 1) directory: path/images/, 2) file: path/images.txt, or 3) list: [path1/images/, path2/images/]
  2. train: /workspace/yolov7/data/dataset/f001yolo/train/
  3. val: /workspace/yolov7/data/dataset/f001yolo/val/
  4. # test: /workspace/yolov7/data/dataset/f001yolo/test/
  5. # number of classes
  6. nc: 38
  7. # class names
  8. names: [#这里省略]

个人认为默认指向路径下的图片,具体原因还在研究中。。。

  1. yolov7训练时的出来labels指的是什么,为什么每一个epoch的标签数都不同?

3.yaml配置文件如何进行配置?

yaml文件通常也是用于保存参数,在主函数中用来调用,yaml文件是一个层级结构,以字典形式调用 yaml文件,在yolov7中我们一共修改了俩个ymal文件,一个是网络结构,一个是数据集的类别数和类别名,还有数据传入路径。

在读取yaml文件时,先将yaml文件里面的内容全部用系统函数读入,然后用yaml.safe_load进行加载,转换成一个字典,返回字典供后续使用,调用的时候就根据yaml文件里面的结构层次按键值对进行调用。在yolo中,yaml与argparse混合使用,

yaml首先可以将全部参数都设置一个默认值,比如网络的层数,激活函数用哪个等等,大多是模型内相关的参数以及train和test使用的数据的地址。

argparse通常设置几个train和test时经常更改的参数,比如训练的epoch,batch_size,learning_rate...

argparse接收的是命令行的输入,所以优先级应该是会高一些;假如argparse和yaml文件中都有相同的参数,如果命令行指定了参数,那么代码运行时使用的参数是命令行输入的参数。

过程中遇到的问题及解决PS

[PS1]来自守护进程的错误响应,创建shim任务失败

OCI runtime create failed: runc create failed: unable to start container process: error during container init: error running hook #0: error running hook: exit status 1, stdout: , stderr: 自动检测模式为'legacy'。

nvidia-container-cli:初始化错误:nvml错误:驱动程序未加载:未知

错误:未能启动容器

原因分析:开始是好用的,在服务器上设置可视化后不好使,可能是nvidia原因

是存在的。

解决办法:重新设置了nvidia后就好使啦~

[PS2]RuntimeError: cuDNN error: CUDNN_STATUS_INTERNAL_ERROR

尝试方法:

  • 调小batchsize

  • 查看gpu设置数量(默认为2个)

  • 尝试

CUDA_VISIBLE_DEVICES=1 python train.py --weights weights/yolov7_training.pt --cfg cfg/training/yolov7-koreanfood.yaml --data koreanfood.yaml --device 0 --epoch 10

[PS3]OSError: [Errno 28] No space left on device: 'runs/train/exp9'

在Linux服务器运行程序的时候,运行完一个epoch后就会出现这个报错OSError: [Errno 28] No space left on device就是说系统的空间不足。

训练过一次后出现的磁盘占用问题,应该是缓存区满,清除缓存

查看系统空间的使用情况:

df -h

overlay:

可以看到其中有一个文件夹已经占用100%了,所以提示空间不足。

解决办法就是删除掉文件夹内的一些东西即可。

查看当前目录空间的占用:

du -sh /workspace/* |grep G

查看各目录的占用空间情况,可以删除掉一些高占用且不使用的文件,释放空间:

du -h -x --max-depth=1

data文件夹下占用最多

再进入data下,看看哪些文件夹占用比较多:

这些都是在运行过程中保存的一些权重文件和过程文件,导致程序运行次数过多,产生的过程文件就越多,因而占用了较多的空间,删除掉一些不需要的文件夹即可。

也可以使用命令删除不需要的文件夹:

rm -rf ./coco

*因为我是在容器内运行的环境,容器默认框架为ubuntu,默认空间为

*上述命令是删除文件夹下的所有文件,

删除后./coco下所有文件都不存在。

深度模型运行时,占用的是磁盘还是内存还是上面?

[PS4] RuntimeError: PytorchStreamReader failed reading zip archive: failed finding central directory

利用训练好新的权重,拿新的照片用来用来推理时出现错误,可能是直接用保存的模型出错。

原因

  1. 模型训练的时候pytorch版本与目前使用的pytorch版本不一致,不能很好的兼容。

  1. 原来模型损坏。

解决办法

  1. 用目前版本的pytorch重新训练模型。

  1. 重新复制一份模型。

[PS5] AttributeError: partially initialized module 'cv2' has no attribute 'gapi_wip_gst_GStreamerPipeline' (most likely due to a circular import)

版本问题,降低版本,安装

pip install opencv-python-headless==4.5.5.64

然后就好使啦~(*我是docker容器环境,不是利用原服务器跑的)

[PS6] 图片标签不显示中文/韩语

依次点击utils->plots.py

找到画框位置源代码(大约在71行附近)

  1. def plot_one_box_PIL(box, img, color=None, label=None, line_thickness=None):
  2. img = Image.fromarray(img)
  3. draw = ImageDraw.Draw(img)
  4. line_thickness = line_thickness or max(int(min(img.size) / 200), 2)
  5. draw.rectangle(box, width=line_thickness, outline=tuple(color)) # plot
  6. if label:
  7. fontsize = max(round(max(img.size) / 40), 12)
  8. font = ImageFont.truetype("Arial.ttf", fontsize)
  9. txt_width, txt_height = font.getsize(label)
  10. draw.rectangle([box[0], box[1] - txt_height + 4, box[0] + txt_width, box[1]], fill=tuple(color))
  11. draw.text((box[0], box[1] - txt_height + 1), label, fill=(255, 255, 255), font=font)
  12. return np.asarray(img)

修改font = ImageFont.truetype("Arial.ttf", fontsize)为

font = ImageFont.truetype("FONT_PATH", fontsize) 不管用

修改

matplotlib.rc('axes', **{'size': 11})

不管用

在plots.py添加如下代码(位置随意)

  1. import matplotlib.pyplot as plt
  2. plt.rcParams['font.sans-serif'] = 'SimHei'
  3. plt.rcParams['axes.unicode_minus'] = False

添加后图片上是问号,终端输出文字正常~

[PS7]_pickle.UnpicklingError: STACK_GLOBAL requires str

产生原因:在过去对当前数据集进行过训练,导致在数据集文件夹中生成了.cache的缓存文件

解决办法:找到数据集文件夹中的全部.cache文件,并将他们全部删除

如图的 train.cache和val.cache

注意:.cache文件也有可能在数据集的images和labels文件夹中,要注意仔细查找

如果是在Linux下操作可以尝试如下命令:

cd 数据集文件夹

rm *.cache

批量删除全部缓存文件。

[PS8]RuntimeError: CUDA out of memory. Tried to allocate 26.00 MiB (GPU 0; 23.65 GiB total capacity; 4.35 GiB already allocated; 14.44 MiB free; 4.40 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF

错误描述:深度学习训练突然停止了,所以关掉训练,再次训练后出现以上错误。

查看GPU使用,指令 nvidia-smi 查看如下

GPU显示一直占用。

解决办法:杀死进程指令 kill -9 (pid如图我的是1567191)

因为我不是root,所以 sudo kill -9 1567191

然后就可以啦~

附录

从创建容器到训练的所有代码

  1. #创建容器 yolov7
  2. nvidia-docker run --name yolov7 -it -v /home/elena/workspace:/workspace/ --shm-size=64g nvcr.io/nvidia/pytorch:21.08-py3
  3. #(可选择)创建容器 gan_pro
  4. docker run --name gan_pro --gpus all -it -v /home/elena/workspace:/workspace/ --shm-size=64g nvcr.io/nvidia/pytorch:21.08-py3
  5. apt update
  6. apt install -y zip htop screen libgl1-mesa-glx
  7. pip install seaborn thop
  8. git clone https://github.com/WongKinYiu/yolov7
  9. cd yolov7
  10. pip install -r requirements.txt
  11. #卸载一般的OpenCV
  12. pip uninstall opencv-python
  13. #安装docker版本OpenCV
  14. pip install opencv-python-headless==4.5.5.64
  15. apt-get install build-essential cmake
  16. apt-get install libgtk-3-dev
  17. apt-get install libboost-all-dev
  18. pip install dlib
  19. pip install pkg-config
  20. python detect.py --weights yolov7.pt --conf 0.25 --img-size 640 --source
  21. #下载 cocodata ,并进行测试(会比较慢)
  22. python test.py --data data/coco.yaml --img 640 --batch 32 --conf 0.001 --iou 0.65 --device 0 --weights yolov7.pt --name yolov7_640_val
  23. #如果用自己的数据集训练的情况
  24. #新建一个存放权重文件夹
  25. mkdir weights
  26. #下载训练预训练模型
  27. wget https://github.com/WongKinYiu/yolov7/releases/download/v0.1/yolov7.pt
  28. wget https://github.com/WongKinYiu/yolov7/releases/download/v0.1/yolov7_training.pt
  29. #修改超参数设置
  30. #训练自己的数据集
  31. python train.py --weights weights/yolov7_training.pt --cfg cfg/training/yolov7-kf.yaml --data data/kf-data/kf.yaml --device 0,1 --batch-size 32 --epoch 10
  32. #用训练后的权重再次训练
  33. python train.py --weights weights/best.pt --cfg cfg/training/yolov7-kf.yaml --data data/kf-data/kf.yaml --device 0,1 --batch-size 32 --epoch 300
  34. #推理,记得更换训练后权重
  35. python detect.py --weights weights/best.pt --source inference/food
  • /mnt/sda1/건강관리를 위한 음식 이미지/Training

  • docker cp [라벨]음식001_Tra_json.zip yolov7:/workspace/yolov7/data/dataset/

  • docker cp [원천]음식001_Tra.zip yolov7:/workspace/yolov7/data/dataset/

  • unzip f001json.zip -d f001json

修改2个ymal文件,一个指向数据集的照片位置,一个指向数据集的标签位置

需要修改的超参数位置

  1. parser.add_argument('--weights', type=str, default='weights/yolo7.pt', help='initial weights path')
  2. parser.add_argument('--data', type=str, default='data/kf-data/data.yaml', help='data.yaml path')

参考文献

[1]【小白教学】如何用YOLOv7训练自己的数据集 - 知乎 (zhihu.com)

[2]【YOLOv5 数据集划分】训练和验证、训练验证和测试(train、val)(train、val、test)_daybrek的博客-CSDN博客

[3]yolov7模型训练结果分析以及如何评估yolov7模型训练的效果_yolo训练结果_把爱留给SCI的博客-CSDN博客

[4]YOLOv7中的数据集处理【代码分析】_爱吃肉的鹏的博客-CSDN博客

[5]YoloV7训练最强操作教程._魔鬼面具的博客-CSDN博客_yolov7教程

标签:
声明

1.本站遵循行业规范,任何转载的稿件都会明确标注作者和来源;2.本站的原创文章,请转载时务必注明文章作者和来源,不尊重原创的行为我们将追究责任;3.作者投稿可能会经我们编辑修改或补充。

在线投稿:投稿 站长QQ:1888636

后台-插件-广告管理-内容页尾部广告(手机)
关注我们

扫一扫关注我们,了解最新精彩内容

搜索