该数据集专注于在复杂背景、光照多变及部分遮挡等挑战性条件下精准定位手掌位置。数据适用于需要鲁棒手部交互的各类应用,如车载手势控制、公共场所的非接触式交互终端、以及增强现实(AR)应用中的手部追踪启动等。通过利用该数据训练模型,可以显著提升在真实世界复杂场景中手掌检测的准确性和稳定性,解决了在理想条件下模型表现良好,但在实际应用中因环境干扰而频繁失效的问题。
在复杂环境中进行手掌检测是人机交互系统的基础。具体过程包括:(1)数据收集:采集大量在不同光照、背景、以及部分遮挡条件下的手部图像。(2)数据处理:对采集的图像进行标注,为每个手掌生成一个精确的边界框。图像特征通过公式 F_image=Encodercnn(I_input) 提取,其中 F_image为图像在高维特征空间的映射,Encodercnn为卷积神经网络编码器,I_input为输入的单帧图像。(3)模型构建:基于提取的特征,构建一个目标检测模型(YOLO 11),该模型学习手掌的预测边界框和置信度。根据公式 BBox=Decoderdet(F_image) 从图像特征中解码出手掌的边界框坐标,其中 BBox 为预测的边界框;关键评估指标为交并比(Intersection over Union, IoU),用于衡量预测边界框与真实边界框的重合度。此方法旨在实现各种非受控环境下高鲁棒性的手掌定位。
| 字段名 | 类型 | 描述 |
|---|---|---|
编号 |
-- | -- |
手部图像 |
-- | -- |
标注边界框 |
-- | -- |
图像特征 |
-- | -- |
预测边界框 |
-- | -- |
| fieldName | exampleValue |
|---|---|
| 编号 | M547-20251011-SH0000 |
| 手部图像 | M547-20251011-SH0000\image.png |
| 标注边界框 | M547-20251011-SH0000\bbox.json |
curl -H "Authorization: Bearer YOUR_API_KEY" \
http://localhost:3001/api/v1/datasets/8417886