目标检测数据集分析
平时我们经常需要对我们的数据集进行各种分析,以便我们找到更好的提高方式。所以我将我平时分析数据集的一些方法打包发布在了Github上,分享给大家,有什么错误和意见,请多多指教!
图片数量、标注框数量、类别信息
这些信息会在终端打印出来,格式如下:
Parsing dataset, please wait...
Parsing done. (0.013s)
number of images: 1266
number of annotations: 2950
number of categories: 6
names of categories: ['inclusion', 'rolled-in_scale', 'pitted_surface', 'patches', 'crazing', 'scratches']
所有图片宽度和高度的散点图
这里只有一个点,是因为所有的图片尺寸相同
所有标注框宽度和高度的散点图
标注框宽度和高度之比 横坐标为比率,纵坐标为数量
每一类的标注框数量
每一类图片数量
每一张图片上的标注框数量
横坐标为一张图片上的标注框数量,纵坐标为图片数量
不同尺寸的图片数量
根据coco的划分规则计算
使用方法
GitHub - Ghlerrix/DataAnalyze: Object-detection dataset analyze
Install
git clone https://github.com/Ghlerrix/DataAnalyze.gitcd DataAnalyzepip install -r requirements.txt
Usage
python analyze.py ${type} ${path} [--out ${out}]
type
The format of the dataset, optional ‘coco’ or ‘voc’.path
The path of dataset. Iftype
is ‘coco’, thepath
is the json file path. Iftype
is ‘voc’, thepath
is the path of the xml file directory.-out
is the output directory, default is ‘./out’
Example
python analyze.py coco ./tarin.json --out ./out/
python analyze.py voc ./xml/ --out ./out/