本程序实现了对影像特征点自动提取,利用Morevac、Forstner、Harris3个经典算子。
在此基础上利用相关系数法实现影像自动匹配,并且引入最小二乘平差,使匹配点精度有所提高。
在搜索点过程中,利用了核线影像特性,对二维影像搜索使用了爬山法启发式搜索。
对大数据量影像采用影像金字塔结构处理。
1、使用GDAL库读取影片,支持TIFF、PNG、JPEG、JPG、BMP、GIF、IMG格式读取。
使用GDI绘图。
2、防止大数据量绘图视图闪烁,图片显示采用双缓存技术。
3、保存视图数据为图片文件,支持TIFF、PNG、JPEG、JPG、BMP、GIF格式保存。
4、TreeCtrl控件、ListCtrl控件的基本操作。
5、MFC单文档程序视图通讯、更换视图、视图分割。
1
python抓取高德POI数据,突破数据量限制,包含了python脚本程序和相关输入文件
2024/9/1 4:29:17 1.81MB poi 高德 python
1
对添加大量的数据进行较为优化的处理(测试),效果有限,可看文章https://blog.csdn.net/qq_44471040/article/details/113842777
2024/8/24 11:43:51 3KB sql
1
TerraScan模块是用来处理数以千万计的激光点数据,较大内存的计算机次能处理超过1000万个点。
软件里提供的工具可以广泛应用于电力输送、洪水分析、高速公路设计、钻孔勘探、森林普查、数字城市建模等不同领域。
该模块可以从文本文件或二进制文件读入激光点数据,包含如下功能:三维方式浏览点数据:自定义点类,如:地表类、植被类、建筑物类、电线类:,激光点分类:根据自定义规则自动分类激光点:如电力铁塔:交互式判别三维月标,应用围栏刑除不要或错误的点:删除不必要的点,减少数据量
2024/8/19 13:08:52 12.34MB terrasolid
1
2.数据库的数据字典:再就业信息管理系统,数据信息和处理过程还需要通过数据字典来描述。
在本文的数据字典中,主要对数据流,数据存储和处理过程进行说明。
(1)主要数据流定义1)职工情况位置:职工信息定义:职工情况=姓名+性别+出生年月+工作类别+职称+工作年限+专业+学历。
数据流向:根据职工所申请企业具体情况来确定。
说明:要对每一位员工进行唯一编号。
2)企业情况位置:企业信息定义:企业情况=企业名称+企业性质+联系人姓名+联系电话。
数据流量:根据企业的具体情况来确定。
说明:要对每一个企业建立唯一的账号。
3)岗位信息位置:岗位定义:岗位情况=岗位名称+学历要求+职称要求+工种+工作年限。
数据流量:根据岗位的具体情况来确定。
说明:要对每一个岗位建立唯一的编号。
(2)数据存储1)数据存储:职工信息表数据量和存取频度:根据职工的具体情况来确定。
存取方式:联机处理;
检索和更新;
以更新操作为主。
2)数据存储:企业信息表数据量和存取频度:根据企业的具体情况来确定。
存取方式:联机处理;
检索和更新;
以更新操作为主。
3)数据存储:岗位信息表数据量和存取频度:根据企业提供岗位的具体情况来确定。
存取方式:联机处理;
检索和更新;
以更新操作为主。
4)数据存储:职工申请表数据量和存取频度:根据职工填写申请的具体情况来确定。
存取方式:联机处理;
检索和更新;
以更新操作为主。
(3)处理过程1)申请过程输入:职工编号,企业编号,岗位编号输出:申请信息处理说明:根据职工填写信息录入申请表2)录用过程输入:职工编号,岗位编号输出:企业是否录用信息处理说明:根据职工的申请记录,企业决定是否录用该职工
1
资源说明:数据集主要包括6类图片:硬纸板、纸、塑料瓶、玻璃瓶、铜制品、不可回收垃圾代码运行说明:1、安装运行项目所需的python模块,包括tensorflow|numpy|keras|cv22、train.py用于训练垃圾分类模型,由于训练的数据量过于庞大,因此不一并上传3、predict.py用于预测垃圾的类别,首先运行predict.py,然后输入需要预测的文件路径,即可得到结果。
2024/8/6 11:03:04 161.27MB 垃圾分类 数据集 代码
1
lyapunov指数计算常用方法,包括定义法、小数据量法、正交法、wolf法,以lorenz系统为例,有详细的说明,都经过调试,可以直接使用
2024/7/31 19:44:03 6.86MB lyapunov指数
1
jxl是java关于Excel的一个工具类,同样的工具类还有apache的poi,jxl在进行数据量较大的工作中性能较强于poi,但是在样式上逊色于poi
2024/7/24 22:23:39 664KB Excel工具类
1
全部为txt文档数据,数据挖掘聚类分析技术,算法实验过程中,经常用到的经典UCI、UPSP等真实数据集,常用于算法的实验验证。
文档中注有相应的数据量、属性等信息,可直接进行使用。
2024/7/23 3:14:25 98KB 聚类分析 实验 测试数据集
1
根据飓风运动轨迹的特点,提出一种基于动态属性的飓风全时域轨迹模型,设计轨迹数据阈值估计更新策略。
将飓风运动轨迹组织成一系列时空连续的运动片段,在符合总体精度要求的前提下,实现数据压缩并支持全时域位置查询。
基于实际飓风数据的实例研究证明,该模型能够较为完整和精确地描述飓风运动过程,总体误差符合飓风预测的国际标准,模型的数据量较原始数据可减少24.71%,并支持飓风过去时刻和短暂未来位置的状态信息查询。
2024/7/5 5:01:31 1.54MB 全时域模型
1
共 178 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡