本数据集主要用于提升AI模型对行人低头玩手机危险行为的识别能力与精确性。通过对该数据集的训练,使AI模型能够通过图像分析识别行人在过马路、上下楼梯、站台候车等场景中因专注手机而忽视周围环境的安全隐患,并可应用于智慧城市安防系统、交通枢纽人流管理及校园/园区安全监控等场景。同时,本数据集可为公共安全管理系统提供智能化预警支持,有效降低事故风险,并为公共场所的安全警示系统提供数据支撑,助力提升城市公共安全管理水平。
1.数据采集 通过企业自有摄像设备自行采集道路行人图像,同步记录图像ID、采集时间、设备型号、地理坐标、光照条件、天气状况等数据。 2.数据预处理与标注 通过数据清洗剔除模糊、遮挡严重的图像。按7:2:1比例划分训练集/验证集/测试集。设置多级标注体系: 一级标签:安全行为/危险行为 二级标签:过马路玩手机/上下楼梯玩手机/站台候车玩手机 辅助标注:行人边界框坐标、手机屏幕可见性。 3.模型选择与初始化 采用YOLOv8预训练模型,初始化参数并优化超参数:学习率0.001-0.0001动态调整,批量大小1-32动态调整,锚框参数适配人体姿态;集成关键点检测提升低头行为识别精度。 4.模型训练 基于PyTorch实施分布式训练,采用混合精度训练(FP16)提升效率。设置训练时长,数据增强模拟复杂场景,添加动态模糊(模拟行人移动)、强光反射(屏幕反光干扰)、局部遮挡(背包/其他人遮挡)等特效。设置早停机制(patience=15),梯度裁剪:max_norm=1.0。 5.模型评估 在训练模型的过程中,使用验证集调整超参数,训练完成后在测试集上评估模型表现,评估指标包含: 基础性能指标:mAP@0.5、误报率 场景鲁棒性测试:低光照环境检出率 并设置渐进式测试:单人静态→多人交互场景,标准姿势→遮挡/坐姿/奔跑等变体
| 字段名 | 类型 | 描述 |
|---|---|---|
图像ID |
-- | -- |
采集时间 |
-- | -- |
设备型号 |
-- | -- |
地理坐标 |
-- | -- |
光照条件 |
-- | -- |
| fieldName | exampleValue |
|---|---|
| 图像ID | PHONE_20240615_0930_105 |
| 采集时间 | 2024-06-15 09:30 |
| 设备型号 | Canon EOS R5 |
curl -H "Authorization: Bearer YOUR_API_KEY" \
http://localhost:3001/api/v1/datasets/8412826