Yolo-pose训练和测试,多分类修改,COCO数据集(17关键点)-创新互联
- coco2017数据集
- coco格式标签
- edgeai-yolov5-yolo-pose(yolov7中的pose也是从这里改过去的,有一点不同)
yolo-pose - 创建coco_kpts文件夹
#其中coco_kpts文件夹与edgeai-yolov5-yolo-pose处于同一目录下,格式如下:
edgeai-yolov5
│ README.md
│ ...
│
coco_kpts
│ images
│ └─────train2017
│ │ └───
| | '
│ └─val2017
| └───
| .
│ annotations
| labels
│ └─────train2017
│ │ └───
| | '
│ └─val2017
| └───
| .
| train2017.txt
| val2017.txt
2.环境(略,自己搭建)权重在原文
创新互联建站主要从事成都网站设计、网站建设、网页设计、企业做网站、公司建网站等业务。立足成都服务金台,10多年网站建设经验,价格优惠、服务专业,欢迎来电咨询建站服务:189808205753.测试(detect.py)报错说什么数组大小异常多半是你忘了加–kpt-label
python test.py --data coco_kpts.yaml --img 640 --conf 0.001 --iou 0.65 --weights "XXXXX.pt" --kpt-label
python train.py --data coco_kpts.yaml --cfg yolov5s6_kpts.yaml --batch-size 64 --img 640 --kpt-label
建议action=‘store_true’,设置为default=‘True’
5.转onnx(export.py,坑)export.py不在根目录,而在models路径下下面,剩下的坑,略。
6.推理(inference.py,坑)提示,原文给的onnx文件是可以用点,主要还是5的坑,略。
7.pose图生成(detect.py,略)错误与环境问题 1.AttributeError: Cant get attribute SPPF on module models.common
解决方法:
在model/common.py文件中加上如下代码
import warnings
class SPPF(nn.Module):
#Spatial pyramid pooling layer used in YOLOv3-SPP
def __init__(self, c1, c2, k=5):
super().__init__()
c_ = c1 // 2 # hidden channels
self.cv1 = Conv(c1, c_, 1, 1)
self.cv2 = Conv(c_ * 4, c2, 1, 1)
self.m = nn.MaxPool2d(kernel_size=k,stride=1,padding=k//2)
def forward(self, x):
x = self.cv1(x)
with warnings.catch_warnings():
warnings.simplefilter('ignore') # suppress torch 1.9.0 max_pool2d() warning
y1=self.m(x)
y2=self.m(y1)
return self.cv2(torch.cat([x,y1,y,self.m(y2)],1))
2.AttributeError: ‘Upsample’ object has no attribute ‘recompute_scale_factor’解决方法:
找到X:\xxx\edgeai-yolov5-yolo-pose\venv\Lib\site-packages\torch\nn\modules\upsampling.py (直接点击pycharm跳转)
找到forward方法
# def forward(self, input: Tensor) ->Tensor:
# return F.interpolate(input, self.size, self.scale_factor, self.mode, #self.align_corners,
#recompute_scale_factor=self.recompute_scale_factor #原来的,删除本行内容即可
#)
def forward(self, input: Tensor) ->Tensor:
return F.interpolate(input, self.size, self.scale_factor, self.mode, self.align_corners)
3.val: WARNING: Ignoring corrupted image and/or label …\coco_kpts\images\train2017\000000581921.jpg: cannot reshape array of size 55 into shape (2)解决方法:
A.找到X:\xxx\edgeai-yolov5-yolo-pose\utils\datasets.py
def img2label_paths(img_paths):
# Define label paths as a function of image paths
sa, sb = os.sep + 'images' + os.sep, os.sep + 'labels' + os.sep # /images/, /labels/ substrings
#return ['txt'.join(x.replace(sa, sb, 1).rsplit(x.split('.')[-1], 1)) for x in img_paths]#原来的
return [x.split('.',1)[0] + '.txt' for x in img_paths]#修改后新的
B.你忘了加–kpt-label参数,调用的代码错误,位置自己找
4.RuntimeError: result type Float can’t be cast to the desired output type long int(上方indices.append((b, a, gj.clamp_(0, gain[3] - 1), gi.clamp_(0, gain[2] - 1))) # image, anchor, grid indices)
yolov5-master版本和yolov5-5.0/yolov5-6.1等版本下的utils\loss.py文件不一致
在loss.py中搜 for i in range(self.nl)
替换前
#anchors = self.anchors[i]
替换后
anchors, shape = self.anchors[i], p[i].shape
在loss.py搜 indices.append
替换前
#indices.append((b, a, gj.clamp_(0, gain[3] - 1), gi.clamp_(0, gain[2] - 1))) # image, anchor, grid indices
替换后
indices.append((b, a, gj.clamp_(0, shape[2] - 1), gi.clamp_(0, shape[3] - 1))) # image, anchor, grid
5.关键点异常,面部关键点不在身体(自己尝试解决哟)
6.转onnx文件,报错:export failure: PyTorch convert function for op ‘conv2d_clamp_prepack’ not implemented.不知道是不是版本问题?报错PyTorch版本1.12.1,成功的版本1.8.2
(但这版本CoreML export failure,‘torch._C.Node’ object has no attribute ‘ival’)
7.detect.py #126行 这里有错误,1是写错了,2是没有适配关键点if save_txt_tidl: # Write to file in tidl dump format
#for *xyxy, conf, cls in det_tidl: #写错了
for *xyxy, conf, cls in det:#作者小失误
适配代码(略)
8.xtcocotools unable to run: No module named ‘xtcocotools’解决方法:
在虚拟环境中(建议python=3.7),3.8.特别是3.9 问题太多。大佬可以自己解决
pip install xtcocotools
9.No matching distribution found for onnxruntime==1.10.0如需Python版本不要过高,否则之后的python版本只能安装onnxruntime>=1.12.0
在对应的虚拟环境中输入
pip install onnxruntime==1.10.0
10.更多错误,略单分类改多分类和多关键点(略)
原作者有部分错误(自己钻研啦)。另外他是yolov7(但改代码部分不太影响,可以调通)
原文链接添加链接描述
COCO关键点数据
annotation{
"keypoints": [x1,y1,v1,...], #关键点坐标及标志位 v
"num_keypoints": int, #关键点数量(要求v>0)
"id": int,
"image_id": int, #图像id号,对应图像的文件名
"category_id": int, #只有人,所以为1
"segmentation": RLE or [polygon], #iscrowd 为 0 时是polygon格式,为1时是 RLE格式,代表分割图(用多边形框出人体)
"area": float, #矩形框的面积
"bbox": [x,y,width,height], #矩形框左上角坐标(x,y)和矩形框的宽高
"iscrowd": 0 or 1,
}
在key_points 关键字中 x,y表示坐标值,
v的值有三个
V | 含义 |
---|---|
0 | 没有该点 |
1 | 该点存在但是被遮挡了 |
2 | 该点存在且没有被遮挡 |
具体的标记规则建议参考coco的标记
关键点的json数据集转txt(coco keypoints键点,略)
在yolov5的yolo转txt的代码上增加读取Json中关键点信息转换就行。
坑在于,建议使用Json阅读器来弄,用nodepad++打开,数据异常(导致不知道怎么写代码,数据都不对,能写出来才怪了)
自己动动手,不难(小提示,使用format(XXX, ‘.6f’)强制实现6位小数,round函数输出可以小于6位)
如何标记coco格式的关键数据
我使用了部分网友自己写的程序,发现会有点位数据与官方数据不一致的问题。
建议直接使用官方coco-annotator调通以后进行打点,多分类也在标记时进行。
厚颜无耻的给上另外一篇我的文章链接coco-annotator安装使用
如果你搞定了标记和转txt,那么你的数据会比官方给出的数据略大是正常的。官方的数据把部分数据移除了,原因如下图嘛。
因为不能直接复制很多内容,格式方面有一些问题,很烦,懒得调整了。
你是否还在寻找稳定的海外服务器提供商?创新互联www.cdcxhl.cn海外机房具备T级流量清洗系统配攻击溯源,准确流量调度确保服务器高可用性,企业级服务器适合批量采购,新人活动首月15元起,快前往官网查看详情吧
网站标题:Yolo-pose训练和测试,多分类修改,COCO数据集(17关键点)-创新互联
标题来源:http://azwzsj.com/article/jhipo.html