Skip to content

Commit fe804f9

Browse files
Refactor doc (PaddlePaddle#6277)
* refactor doc, test=document_fix * update yolox & yolov5, test=document_fix * Update README_cn.md * update doc, test=document_fix * Update readme and pphuman readme * Update README.md * add data & customize, test=document_fix * update readme * Update README_cn.md * Update README_cn.md * add template, test=document_fix Co-authored-by: YixinKristy <[email protected]>
1 parent 3c53001 commit fe804f9

29 files changed

+678
-339
lines changed

README_cn.md

+193-113
Large diffs are not rendered by default.

deploy/pphuman/README.md

+50-157
Large diffs are not rendered by default.
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,163 @@
1+
# 快速开始
2+
3+
## 一、环境准备
4+
5+
环境要求: PaddleDetection版本 >= release/2.4 或 develop版本
6+
7+
PaddlePaddle和PaddleDetection安装
8+
9+
```
10+
# PaddlePaddle CUDA10.1
11+
python -m pip install paddlepaddle-gpu==2.2.2.post101 -f https://www.paddlepaddle.org.cn/whl/linux/mkl/avx/stable.html
12+
13+
# PaddlePaddle CPU
14+
python -m pip install paddlepaddle -i https://mirror.baidu.com/pypi/simple
15+
16+
# 克隆PaddleDetection仓库
17+
cd <path/to/clone/PaddleDetection>
18+
git clone https://github.com/PaddlePaddle/PaddleDetection.git
19+
20+
# 安装其他依赖
21+
cd PaddleDetection
22+
pip install -r requirements.txt
23+
```
24+
25+
1. 详细安装文档参考[文档](../../../../docs/tutorials/INSTALL_cn.md)
26+
2. 如果需要TensorRT推理加速(测速方式),请安装带`TensorRT版本Paddle`。您可以从[Paddle安装包](https://paddleinference.paddlepaddle.org.cn/v2.2/user_guides/download_lib.html#python)下载安装,或者按照[指导文档](https://www.paddlepaddle.org.cn/inference/master/optimize/paddle_trt.html)使用docker或自编译方式准备Paddle环境。
27+
28+
## 二、模型下载
29+
30+
PP-Human提供了目标检测、属性识别、行为识别、ReID预训练模型,以实现不同使用场景,用户可以直接下载使用
31+
32+
| 任务 | 适用场景 | 精度 | 预测速度(ms) | 模型权重 | 预测部署模型 |
33+
| :---------: |:---------: |:--------------- | :-------: | :------: | :------: |
34+
| 目标检测 | 图片输入 | mAP: 56.3 | 28.0ms |[下载链接](https://bj.bcebos.com/v1/paddledet/models/pipeline/mot_ppyoloe_l_36e_pipeline.pdparams) |[下载链接](https://bj.bcebos.com/v1/paddledet/models/pipeline/mot_ppyoloe_l_36e_pipeline.zip) |
35+
| 目标跟踪 | 视频输入 | MOTA: 72.0 | 33.1ms |[下载链接](https://bj.bcebos.com/v1/paddledet/models/pipeline/mot_ppyoloe_l_36e_pipeline.pdparams) |[下载链接](https://bj.bcebos.com/v1/paddledet/models/pipeline/mot_ppyoloe_l_36e_pipeline.zip) |
36+
| 属性识别 | 图片/视频输入 属性识别 | mA: 94.86 | 单人2ms | - |[下载链接](https://bj.bcebos.com/v1/paddledet/models/pipeline/strongbaseline_r50_30e_pa100k.zip) |
37+
| 关键点检测 | 视频输入 行为识别 | AP: 87.1 | 单人2.9ms |[下载链接](https://bj.bcebos.com/v1/paddledet/models/pipeline/dark_hrnet_w32_256x192.pdparams) |[下载链接](https://bj.bcebos.com/v1/paddledet/models/pipeline/dark_hrnet_w32_256x192.zip)
38+
| 行为识别 | 视频输入 行为识别 | 准确率: 96.43 | 单人2.7ms | - |[下载链接](https://bj.bcebos.com/v1/paddledet/models/pipeline/STGCN.zip) |
39+
| ReID | 视频输入 跨镜跟踪 | mAP: 98.8 | 单人1.5ms | - |[下载链接](https://bj.bcebos.com/v1/paddledet/models/pipeline/reid_model.zip) |
40+
41+
下载模型后,解压至`./output_inference`文件夹
42+
43+
**注意:**
44+
45+
- 模型精度为融合数据集结果,数据集包含开源数据集和企业数据集
46+
- ReID模型精度为Market1501数据集测试结果
47+
- 预测速度为T4下,开启TensorRT FP16的效果, 模型预测速度包含数据预处理、模型预测、后处理全流程
48+
49+
## 三、配置文件说明
50+
51+
PP-Human相关配置位于```deploy/pphuman/config/infer_cfg.yml```中,存放模型路径,完成不同功能需要设置不同的任务类型
52+
53+
功能及任务类型对应表单如下:
54+
55+
| 输入类型 | 功能 | 任务类型 | 配置项 |
56+
|-------|-------|----------|-----|
57+
| 图片 | 属性识别 | 目标检测 属性识别 | DET ATTR |
58+
| 单镜头视频 | 属性识别 | 多目标跟踪 属性识别 | MOT ATTR |
59+
| 单镜头视频 | 行为识别 | 多目标跟踪 关键点检测 摔倒识别 | MOT KPT SKELETON_ACTION |
60+
61+
例如基于视频输入的属性识别,任务类型包含多目标跟踪和属性识别,具体配置如下:
62+
63+
```
64+
crop_thresh: 0.5
65+
attr_thresh: 0.5
66+
visual: True
67+
68+
MOT:
69+
model_dir: output_inference/mot_ppyoloe_l_36e_pipeline/
70+
tracker_config: deploy/pphuman/config/tracker_config.yml
71+
batch_size: 1
72+
basemode: "idbased"
73+
74+
ATTR:
75+
model_dir: output_inference/strongbaseline_r50_30e_pa100k/
76+
batch_size: 8
77+
basemode: "idbased"
78+
enable: False
79+
```
80+
81+
**注意:**
82+
83+
- 如果用户需要实现不同任务,可以在配置文件对应enable选项设置为True, 其basemode类型会在代码中开启依赖的基础能力模型,比如跟踪模型。
84+
- 如果用户仅需要修改模型文件路径,可以在命令行中加入 `--model_dir det=ppyoloe/` 即可,无需修改配置文件,详细说明参考下方参数说明文档
85+
86+
87+
### 四、预测部署
88+
89+
```
90+
# 行人检测,指定配置文件路径和测试图片
91+
python deploy/pphuman/pipeline.py --config deploy/pphuman/config/infer_cfg.yml --image_file=test_image.jpg --device=gpu [--run_mode trt_fp16]
92+
93+
# 行人跟踪,指定配置文件路径和测试视频
94+
python deploy/pphuman/pipeline.py --config deploy/pphuman/config/infer_cfg.yml --video_file=test_video.mp4 --device=gpu [--run_mode trt_fp16]
95+
96+
# 行人跟踪,指定配置文件路径,模型路径和测试视频
97+
# 命令行中指定的模型路径优先级高于配置文件
98+
python deploy/pphuman/pipeline.py --config deploy/pphuman/config/infer_cfg.yml --video_file=test_video.mp4 --device=gpu --model_dir det=ppyoloe/ [--run_mode trt_fp16]
99+
100+
# 行人属性识别,指定配置文件路径和测试视频,在配置文件中ATTR部分开启enable选项。
101+
python deploy/pphuman/pipeline.py --config deploy/pphuman/config/infer_cfg.yml --video_file=test_video.mp4 --device=gpu [--run_mode trt_fp16]
102+
103+
# 行为识别,指定配置文件路径和测试视频,在配置文件中对应行为识别功能开启enable选项。
104+
python deploy/pphuman/pipeline.py --config deploy/pphuman/config/infer_cfg.yml --video_file=test_video.mp4 --device=gpu [--run_mode trt_fp16]
105+
106+
# 行人跨境跟踪,指定配置文件路径和测试视频列表文件夹,在配置文件中REID部分开启enable选项。
107+
python deploy/pphuman/pipeline.py --config deploy/pphuman/config/infer_cfg.yml --video_dir=mtmct_dir/ --device=gpu [--run_mode trt_fp16]
108+
```
109+
110+
### 4.1 参数说明
111+
112+
| 参数 | 是否必须|含义 |
113+
|-------|-------|----------|
114+
| --config | Yes | 配置文件路径 |
115+
| --model_dir | Option | PP-Human中各任务模型路径,优先级高于配置文件, 例如`--model_dir det=better_det/ attr=better_attr/`|
116+
| --image_file | Option | 需要预测的图片 |
117+
| --image_dir | Option | 要预测的图片文件夹路径 |
118+
| --video_file | Option | 需要预测的视频 |
119+
| --camera_id | Option | 用来预测的摄像头ID,默认为-1(表示不使用摄像头预测,可设置为:0 - (摄像头数目-1) ),预测过程中在可视化界面按`q`退出输出预测结果到:output/output.mp4|
120+
| --device | Option | 运行时的设备,可选择`CPU/GPU/XPU`,默认为`CPU`|
121+
| --output_dir | Option|可视化结果保存的根目录,默认为output/|
122+
| --run_mode | Option |使用GPU时,默认为paddle, 可选(paddle/trt_fp32/trt_fp16/trt_int8)|
123+
| --enable_mkldnn | Option | CPU预测中是否开启MKLDNN加速,默认为False |
124+
| --cpu_threads | Option| 设置cpu线程数,默认为1 |
125+
| --trt_calib_mode | Option| TensorRT是否使用校准功能,默认为False。使用TensorRT的int8功能时,需设置为True,使用PaddleSlim量化后的模型时需要设置为False |
126+
| --do_entrance_counting | Option | 是否统计出入口流量,默认为False |
127+
| --draw_center_traj | Option | 是否绘制跟踪轨迹,默认为False |
128+
129+
## 五、方案介绍
130+
131+
PP-Human整体方案如下图所示
132+
133+
<div width="1000" align="center">
134+
<img src="../../../../docs/images/pphuman-tech.png"/>
135+
</div>
136+
137+
138+
### 1. 行人检测
139+
- 采用PP-YOLOE L 作为目标检测模型
140+
- 详细文档参考[PP-YOLOE](../../../../configs/ppyoloe/)[检测跟踪文档](mot.md)
141+
142+
### 2. 行人跟踪
143+
- 采用SDE方案完成行人跟踪
144+
- 检测模型使用PP-YOLOE L
145+
- 跟踪模块采用Bytetrack方案
146+
- 详细文档参考[Bytetrack](../../../../configs/mot/bytetrack)[检测跟踪文档](mot.md)
147+
148+
### 3. 跨镜行人跟踪
149+
- 使用PP-YOLOE + Bytetrack得到单镜头多目标跟踪轨迹
150+
- 使用ReID(centroid网络)对每一帧的检测结果提取特征
151+
- 多镜头轨迹特征进行匹配,得到跨镜头跟踪结果
152+
- 详细文档参考[跨镜跟踪](mtmct.md)
153+
154+
### 4. 属性识别
155+
- 使用PP-YOLOE + Bytetrack跟踪人体
156+
- 使用StrongBaseline(多分类模型)完成识别属性,主要属性包括年龄、性别、帽子、眼睛、上衣下衣款式、背包等
157+
- 详细文档参考[属性识别](attribute.md)
158+
159+
### 5. 行为识别:
160+
- 使用PP-YOLOE + Bytetrack跟踪人体
161+
- 使用HRNet进行关键点检测得到人体17个骨骼点
162+
- 结合50帧内同一个人骨骼点的变化,通过ST-GCN判断50帧内发生的动作是否为摔倒
163+
- 详细文档参考[行为识别](action.md)

deploy/pphuman/docs/action.md deploy/pphuman/docs/tutorials/action.md

+1-1
Original file line numberDiff line numberDiff line change
@@ -5,7 +5,7 @@
55
行为识别在智慧社区,安防监控等方向具有广泛应用,PP-Human中集成了基于骨骼点的行为识别模块。
66

77
<div align="center">
8-
<img src="./images/action.gif" width='1000'/>
8+
<img src="../images/action.gif" width='1000'/>
99
<center>数据来源及版权归属:天覆科技,感谢提供并开源实际场景数据,仅限学术研究使用</center>
1010
</div>
1111

deploy/pphuman/docs/action_en.md deploy/pphuman/docs/tutorials/action_en.md

+1-1
Original file line numberDiff line numberDiff line change
@@ -4,7 +4,7 @@ English | [简体中文](action.md)
44

55
Falling Recognition is widely used in the intelligent community/smart city, and security monitoring. PP-Human provides the module of skeleton-based action recognition.
66

7-
<div align="center"> <img src="./images/action.gif" width='1000'/> <center>Data source and copyright owner:Skyinfor
7+
<div align="center"> <img src="../images/action.gif" width='1000'/> <center>Data source and copyright owner:Skyinfor
88
Technology. Thanks for the provision of actual scenario data, which are only
99
used for academic research here. </center>
1010

deploy/pphuman/docs/attribute.md deploy/pphuman/docs/tutorials/attribute.md

+1-1
Original file line numberDiff line numberDiff line change
@@ -45,7 +45,7 @@ python deploy/pphuman/pipeline.py --config deploy/pphuman/config/infer_cfg.yml \
4545
测试效果如下:
4646

4747
<div width="1000" align="center">
48-
<img src="./images/attribute.gif"/>
48+
<img src="../images/attribute.gif"/>
4949
</div>
5050

5151
数据来源及版权归属:天覆科技,感谢提供并开源实际场景数据,仅限学术研究使用

deploy/pphuman/docs/mot.md deploy/pphuman/docs/tutorials/mot.md

+1-1
Original file line numberDiff line numberDiff line change
@@ -47,7 +47,7 @@ python deploy/pphuman/pipeline.py --config deploy/pphuman/config/infer_cfg.yml \
4747
测试效果如下:
4848

4949
<div width="1000" align="center">
50-
<img src="./images/mot.gif"/>
50+
<img src="../images/mot.gif"/>
5151
</div>
5252

5353
数据来源及版权归属:天覆科技,感谢提供并开源实际场景数据,仅限学术研究使用

deploy/pphuman/docs/mot_en.md deploy/pphuman/docs/tutorials/mot_en.md

+1-1
Original file line numberDiff line numberDiff line change
@@ -48,7 +48,7 @@ python deploy/pphuman/pipeline.py --config deploy/pphuman/config/infer_cfg.yml \
4848
The test result is:
4949

5050
<div width="1000" align="center">
51-
<img src="./images/mot.gif"/>
51+
<img src="../images/mot.gif"/>
5252
</div>
5353

5454
Data source and copyright owner:Skyinfor Technology. Thanks for the provision of actual scenario data, which are only used for academic research here.

deploy/pphuman/docs/mtmct.md deploy/pphuman/docs/tutorials/mtmct.md

+2-2
Original file line numberDiff line numberDiff line change
@@ -60,12 +60,12 @@ python3 deploy/pphuman/pipeline.py
6060

6161
- camera 1:
6262
<div width="1080" align="center">
63-
<img src="./images/c1.gif"/>
63+
<img src="../images/c1.gif"/>
6464
</div>
6565

6666
- camera 2:
6767
<div width="1080" align="center">
68-
<img src="./images/c2.gif"/>
68+
<img src="../images/c2.gif"/>
6969
</div>
7070

7171

deploy/pphuman/docs/mtmct_en.md deploy/pphuman/docs/tutorials/mtmct_en.md

+2-2
Original file line numberDiff line numberDiff line change
@@ -63,12 +63,12 @@ Under the above circumstances, the REID model used in MTMCT integrates open-sour
6363

6464
- camera 1:
6565
<div width="1080" align="center">
66-
<img src="./images/c1.gif"/>
66+
<img src="../images/c1.gif"/>
6767
</div>
6868

6969
- camera 2:
7070
<div width="1080" align="center">
71-
<img src="./images/c2.gif"/>
71+
<img src="../images/c2.gif"/>
7272
</div>
7373

7474

docs/advanced_tutorials/READER.md

+2-2
Original file line numberDiff line numberDiff line change
@@ -90,7 +90,7 @@ COCO数据集目前分为COCO2014和COCO2017,主要由json文件和image文件
9090
│ │ ...
9191
```
9292

93-
`source/coco.py`中定义并注册了`COCODataSet`数据集类,其继承自`DetDataSet`,并实现了parse_dataset方法,调用[COCO API](https://github.com/cocodataset/cocoapi)加载并解析COCO格式数据源`roidbs``cname2cid`,具体可参见`source/coco.py`源码。将其他数据集转换成COCO格式可以参考[用户数据转成COCO数据](../tutorials/PrepareDataSet.md#用户数据转成COCO数据)
93+
`source/coco.py`中定义并注册了`COCODataSet`数据集类,其继承自`DetDataSet`,并实现了parse_dataset方法,调用[COCO API](https://github.com/cocodataset/cocoapi)加载并解析COCO格式数据源`roidbs``cname2cid`,具体可参见`source/coco.py`源码。将其他数据集转换成COCO格式可以参考[用户数据转成COCO数据](../tutorials/PrepareDetDataSet.md#用户数据转成COCO数据)
9494

9595
#### 2.2Pascal VOC数据集
9696
该数据集目前分为VOC2007和VOC2012,主要由xml文件和image文件组成,其组织结构如下所示:
@@ -118,7 +118,7 @@ COCO数据集目前分为COCO2014和COCO2017,主要由json文件和image文件
118118
│ ├── ImageSets
119119
│ │ ...
120120
```
121-
`source/voc.py`中定义并注册了`VOCDataSet`数据集,它继承自`DetDataSet`基类,并重写了`parse_dataset`方法,解析VOC数据集中xml格式标注文件,更新`roidbs``cname2cid`。将其他数据集转换成VOC格式可以参考[用户数据转成VOC数据](../tutorials/PrepareDataSet.md#用户数据转成VOC数据)
121+
`source/voc.py`中定义并注册了`VOCDataSet`数据集,它继承自`DetDataSet`基类,并重写了`parse_dataset`方法,解析VOC数据集中xml格式标注文件,更新`roidbs``cname2cid`。将其他数据集转换成VOC格式可以参考[用户数据转成VOC数据](../tutorials/PrepareDetDataSet.md#用户数据转成VOC数据)
122122

123123
#### 2.3自定义数据集
124124
如果COCODataSet和VOCDataSet不能满足你的需求,可以通过自定义数据集的方式来加载你的数据集。只需要以下两步即可实现自定义数据集
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,13 @@
1+
# 行为识别任务二次开发
2+
3+
## 方案选择
4+
5+
## 数据准备
6+
7+
## 模型优化
8+
9+
### 1. 摔倒--基于关键点的行为识别方案
10+
11+
## 新增行为
12+
13+
### 1. 基于关键点的行为识别方案
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,7 @@
1+
# 属性识别任务二次开发
2+
3+
## 数据准备
4+
5+
## 模型优化
6+
7+
## 新增属性
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,82 @@
1+
# 目标检测任务二次开发
2+
3+
在目标检测算法产业落地过程中,常常会出现需要额外训练以满足实际使用的要求,项目迭代过程中也会出先需要修改类别的情况。本文档详细介绍如何使用PaddleDetection进行目标检测算法二次开发,流程包括:数据准备、模型优化思路和修改类别开发流程。
4+
5+
## 数据准备
6+
7+
二次开发首先需要进行数据集的准备,针对场景特点采集合适的数据从而提升模型效果和泛化性能。然后使用Labeme,LabelImg等标注工具标注目标检测框,并将标注结果转化为COCO或VOC数据格式。详细文档可以参考[数据准备文档](../../tutorials/data/README.md)
8+
9+
## 模型优化
10+
11+
### 1. 使用自定义数据集训练
12+
13+
基于准备的数据在数据配置文件中修改对应路径,例如`configs/dataset/coco_detection.yml`:
14+
15+
```
16+
metric: COCO
17+
num_classes: 80
18+
19+
TrainDataset:
20+
!COCODataSet
21+
image_dir: train2017 # 训练集的图片所在文件相对于dataset_dir的路径
22+
anno_path: annotations/instances_train2017.json # 训练集的标注文件相对于dataset_dir的路径
23+
dataset_dir: dataset/coco # 数据集所在路径,相对于PaddleDetection路径
24+
data_fields: ['image', 'gt_bbox', 'gt_class', 'is_crowd']
25+
26+
EvalDataset:
27+
!COCODataSet
28+
image_dir: val2017 # 验证集的图片所在文件相对于dataset_dir的路径
29+
anno_path: annotations/instances_val2017.json # 验证集的标注文件相对于dataset_dir的路径
30+
dataset_dir: dataset/coco # 数据集所在路径,相对于PaddleDetection路径
31+
32+
TestDataset:
33+
!ImageFolder
34+
anno_path: annotations/instances_val2017.json # also support txt (like VOC's label_list.txt) # 标注文件所在文件 相对于dataset_dir的路径
35+
dataset_dir: dataset/coco # if set, anno_path will be 'dataset_dir/anno_path' # 数据集所在路径,相对于PaddleDetection路径
36+
```
37+
38+
配置修改完成后,即可以启动训练评估,命令如下
39+
40+
```
41+
export CUDA_VISIBLE_DEVICES=0
42+
python tools/train.py -c configs/yolov3/yolov3_mobilenet_v1_roadsign.yml --eval
43+
```
44+
45+
更详细的命令参考[30分钟快速上手PaddleDetection](../../tutorials/GETTING_STARTED_cn.md)
46+
47+
48+
### 2. 加载COCO模型作为预训练
49+
50+
目前PaddleDetection提供的配置文件加载的预训练模型均为ImageNet数据集的权重,加载到检测算法的骨干网络中,实际使用时,建议加载COCO数据集训练好的权重,通常能够对模型精度有较大提升,使用方法如下:
51+
52+
#### 1) 设置预训练权重路径
53+
54+
COCO数据集训练好的模型权重均在各算法配置文件夹下,例如`configs/ppyoloe`下提供了PP-YOLOE-l COCO数据集权重:[链接](https://paddledet.bj.bcebos.com/models/ppyoloe_crn_l_300e_coco.pdparams) 。配置文件中设置`pretrain_weights: https://paddledet.bj.bcebos.com/models/ppyoloe_crn_l_300e_coco.pdparams`
55+
56+
#### 2) 修改超参数
57+
58+
加载COCO预训练权重后,需要修改学习率超参数,例如`configs/ppyoloe/_base_/optimizer_300e.yml`中:
59+
60+
```
61+
epoch: 120 # 原始配置为300epoch,加载COCO权重后可以适当减少迭代轮数
62+
63+
LearningRate:
64+
base_lr: 0.005 # 原始配置为0.025,加载COCO权重后需要降低学习率
65+
schedulers:
66+
- !CosineDecay
67+
max_epochs: 144 # 依据epoch数进行修改
68+
- !LinearWarmup
69+
start_factor: 0.
70+
epochs: 5
71+
```
72+
73+
## 修改类别
74+
75+
当实际使用场景类别发生变化时,需要修改数据配置文件,例如`configs/datasets/coco_detection.yml`中:
76+
77+
```
78+
metric: COCO
79+
num_classes: 10 # 原始类别80
80+
```
81+
82+
配置修改完成后,同样可以加载COCO预训练权重,PaddleDetection支持自动加载shape匹配的权重,对于shape不匹配的权重会自动忽略,因此无需其他修改。
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,7 @@
1+
# 属性识别任务二次开发
2+
3+
## 数据准备
4+
5+
## 模型优化
6+
7+
### 新增属性
Original file line numberDiff line numberDiff line change
@@ -0,0 +1,7 @@
1+
# 多目标跟踪任务二次开发
2+
3+
## 数据准备
4+
5+
## 模型优化
6+
7+
## 跟踪类别修改

docs/tutorials/GETTING_STARTED.md

+1-1
Original file line numberDiff line numberDiff line change
@@ -11,7 +11,7 @@ instructions](INSTALL_cn.md).
1111

1212
## Data preparation
1313

14-
- Please refer to [PrepareDataSet](PrepareDataSet.md) for data preparation
14+
- Please refer to [PrepareDetDataSet](PrepareDetDataSet_en.md) for data preparation
1515
- Please set the data path for data configuration file in ```configs/datasets```
1616

1717

docs/tutorials/GETTING_STARTED_cn.md

+1-1
Original file line numberDiff line numberDiff line change
@@ -12,7 +12,7 @@ PaddleDetection作为成熟的目标检测开发套件,提供了从数据准
1212

1313
## 2 准备数据
1414
目前PaddleDetection支持:COCO VOC WiderFace, MOT四种数据格式。
15-
- 首先按照[准备数据文档](PrepareDataSet.md) 准备数据。
15+
- 首先按照[准备数据文档](PrepareDetDataSet.md) 准备数据。
1616
- 然后设置`configs/datasets`中相应的coco或voc等数据配置文件中的数据路径。
1717
- 在本项目中,我们使用路标识别数据集
1818
```bash

0 commit comments

Comments
 (0)