手脸近距遮挡属于深度传感器应用中具有代表性的难点问题,针对该问题提出了一种综合利用颜色与深度信息的手势识别方法。
采用核模糊C-均值聚类,对手脸遮挡图像进行粗分割和灰度增强,实现手脸分离。
引入初始化水平集函数,处理聚类方法导致的手势区域像元缺失问题。
利用基于深度信息的梯度方向直方图(HOG)特征对手势进行分类识别。
通过采集不同人体手脸近距遮挡情形下的多种手势图像建立了样本数据库,进行了对比实验,实验结果验证了该方法的可行性和有效性。
本文方法能有效分离近距遮挡的手和脸,提取得到相对完整的手势信息,深度HOG特征能够对手势空间信息进行精确描述,具有比传统形状特征更准确的识别效果。
1
网上有不少使用Qt做界面,OpenNI为库来开发kinect。
或许大家的第一个问题就是询问该怎样使用Kinect来获取颜色信息图和深度信息图呢?这一节就是简单来回答这个问题的。
使用OpenNI读取颜色图和深度图的步骤如下(这个是程序的核心部分):  1.定义一个Context对象,并调用该对象的Init()方法来进行初始化。
  2.定义一个XnMapOutputMode格式对象,设置好分图像分辨率和帧率。
  3.定义颜色图和深度图的节点对象,并用其Create()方法来创建,参数为Context对象.  4.设置颜色和深度图的输出模式,调用的方法是SetMapOutputMode();参数为步骤2中定义和设置好了的XnMapOutputMode对象。
  6.如果深度图和颜色图在一张图上显示,则必须对深度图像进行校正,校正的方法是调用深度图的如下方法:.GetAlternativeViewPointCap().SetViewPoint();  7.调用context对象的StartGeneratingAll()来开启设备读取数据开关。
  8.调用context对象的更新数据方法,比如WaitAndupdateAll()方法。
  9.定义颜色图和色彩图的ImageMetaData对象,并利用对应的节点对象的方法GetMetaData(),将获取到的数据保存到对应的ImageMetaData对象中。
  10.如果需要将深度图转换成灰度图来显示,则需要本人将深度值转换成0~255的单通道或者多通道数据,然后直接用来显示。
2017/6/5 4:54:54 1.53MB Kinect OpenNI 深度图 颜色图
1
单kinect静止场景多帧去噪,工夫域用中值,空间域用最近邻。
2017/4/4 3:37:47 3KB kinect opencv c++
1
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡