利用kinect的肢体识别完成了识别人体基本动作
2021/6/18 16:38:43 400KB Kinect 人体识别 游戏
1
微软Kinectsdk自带的人脸识别源代码,实用无效,功能强大
2016/5/3 2:49:34 77.95MB kinect
1
利用Kinect抠图和辨认简单动作自动拍照程序。
kinectV2抠图自动拍照。
相关博客https://blog.csdn.net/baolinq/article/details/52388095
2015/10/13 15:39:37 6.88MB kinectV2 抠图 自动拍照
1
非常详细的引见Kinect相机的标定过程,是学习各种相机标定的参考材料。
里面引见了标定的原理标定的棋盘等。
2016/8/16 4:26:47 39.29MB Kinect matlab 相机标定
1
安装kinect微软SDK,VS2010结合opencv2.2,对人体蹲下、起跳、前后左右等动作进行判断和识别,并打印提示信息给用户到显示的视频上。
2021/2/22 19:32:17 9.72MB kinect opencv 人体动作判断
1
完好的kinect控制ppt上下翻页播放的源码共初学者学习
2020/1/22 13:03:28 8.52MB kinect ppt播放
1
安装前请关闭visualstudio,卸载Kinectsdk1.0及其以上的版本.
2022/9/5 15:43:47 55.04MB Kinectbeta2
1
kinect+opengl生成并显示点云可检查博客http://blog.csdn.net/jiaojialulu/article/details/53089353
2022/9/5 14:43:08 7KB kinect2 opengl 点云
1
我本人写的通过opencv来存储kinect2.0的深度和彩色帧,并且存为jpg格式的图片。
头文件和源文件都在文档中,有注释说明,本人创建工程,连接好kinect之后,即可运行和完成存储。
2022/9/3 11:37:56 6KB kinect 2.0
1
网上有不少使用Qt做界面,OpenNI为库来开发kinect。
或许大家的第一个问题就是询问该怎样使用Kinect来获取颜色信息图和深度信息图呢?这一节就是简单来回答这个问题的。
使用OpenNI读取颜色图和深度图的步骤如下(这个是程序的核心部分):  1.定义一个Context对象,并调用该对象的Init()方法来进行初始化。
  2.定义一个XnMapOutputMode格式对象,设置好分图像分辨率和帧率。
  3.定义颜色图和深度图的节点对象,并用其Create()方法来创建,参数为Context对象.  4.设置颜色和深度图的输出模式,调用的方法是SetMapOutputMode();参数为步骤2中定义和设置好了的XnMapOutputMode对象。
  6.如果深度图和颜色图在一张图上显示,则必须对深度图像进行校正,校正的方法是调用深度图的如下方法:.GetAlternativeViewPointCap().SetViewPoint();  7.调用context对象的StartGeneratingAll()来开启设备读取数据开关。
  8.调用context对象的更新数据方法,比如WaitAndupdateAll()方法。
  9.定义颜色图和色彩图的ImageMetaData对象,并利用对应的节点对象的方法GetMetaData(),将获取到的数据保存到对应的ImageMetaData对象中。
  10.如果需要将深度图转换成灰度图来显示,则需要本人将深度值转换成0~255的单通道或者多通道数据,然后直接用来显示。
2017/6/5 4:54:54 1.53MB Kinect OpenNI 深度图 颜色图
1
共 73 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡