我们在 tools/
目录下提供了许多有用的工具。
MOT 测试时参数搜索¶
tools/analysis_tools/mot/mot_param_search.py
可以搜索 MOT 模型中 tracker
的参数。它与 tools/test.py
的使用方式相同,但在配置方面有所**不同**。
以下是一个示例,展示了如何修改配置
定义要记录的期望评估指标。
例如,您可以将
evaluator
定义为test_evaluator=dict(type='MOTChallengeMetrics', metric=['HOTA', 'CLEAR', 'Identity'])
当然,您也可以自定义
test_evaluator
中metric
的内容。您可以自由选择一个或多个['HOTA', 'CLEAR', 'Identity']
。定义要搜索的参数和值。
假设您有一个像这样的跟踪器
model=dict( tracker=dict( type='BaseTracker', obj_score_thr=0.5, match_iou_thr=0.5 ) )
如果您想搜索跟踪器的参数,只需将值更改为列表,如下所示
model=dict( tracker=dict( type='BaseTracker', obj_score_thr=[0.4, 0.5, 0.6], match_iou_thr=[0.4, 0.5, 0.6, 0.7] ) )
然后,脚本将测试所有 12 种情况并记录结果。
MOT 错误可视化¶
tools/analysis_tools/mot/mot_error_visualize.py
可以可视化多目标跟踪的错误。此脚本需要推理结果。默认情况下,**红色**边界框表示误报,**黄色**边界框表示漏报,**蓝色**边界框表示 ID 切换。
python tools/analysis_tools/mot/mot_error_visualize.py \
${CONFIG_FILE}\
--input ${INPUT} \
--result-dir ${RESULT_DIR} \
[--output-dir ${OUTPUT}] \
[--fps ${FPS}] \
[--show] \
[--backend ${BACKEND}]
RESULT_DIR
包含所有视频的推理结果,推理结果是一个 txt
文件。
可选参数
OUTPUT
: 可视化演示的输出。如果未指定,则必须使用--show
实时显示视频。FPS
: 输出视频的 FPS。--show
: 是否实时显示视频。BACKEND
: 可视化框的后端。选项包括cv2
和plt
。
浏览数据集¶
tools/analysis_tools/mot/browse_dataset.py
可以可视化训练数据集,以检查数据集配置是否正确。
示例
python tools/analysis_tools/browse_dataset.py ${CONFIG_FILE} [--show-interval ${SHOW_INTERVAL}]
可选参数
SHOW_INTERVAL
: 显示间隔(秒)。--show
: 是否实时显示图像。