利用python进行局部加权线性回归实战,内含有原始数据及拟合结论图。
2025/4/20 13:49:14 314KB 机器学习 局部加权 线性回归 python
1
周期滑移检测是其中涉及载波相位观测的高精度GNSS数据处理的基本步骤之一,例如在精确的点定位(PPP)和精确的轨道确定(POD)中。
自1980年代开发以来,有效地处理了双频GPS。
然而,新兴的北斗导航卫星系统为这些现有算法带来了一些新的挑战,尤其是在小周跳频发的情况下。
在这项研究中,在低海拔北斗GEO载波相位观测中发现了大量的1周期滑动,这些观测是由IGS多GNSS实验的接收者收集的。
如果可能,在PPP和POD处理之前,应识别并修复这种小的周跳。
我们提出了一种基于一系列双频相位无几何组合的增强循环滑移检测方法。
采用鲁棒的多项式拟合算法和一般的自回归条件异方差建模技术来提供自适应检测阈值,从而可以以高可靠性识别出如此小的循环滑动。
仿真和实际数据测试表明,即使在电离层闪烁的情况下,该方法具有较高的灵敏度和较低的误报率。
2025/4/17 9:17:45 1.12MB 研究论文
1
Matlab功率谱估计的详尽分析——绝对原创功率谱估计是信息学科中的研究热点,在过去的30多年里取得了飞速的发展。
现代谱估计主要是针对经典谱估计(周期图和自相关法)的分辨率低和方差性能不好的问题而提出的。
其内容极其丰富,涉及的学科和领域也相当广泛,按是否有参数大致可分为参数模型估计和非参数模型估计,前者有AR模型、MA模型、ARMA模型、PRONY指数模型等;后者有最小方差方法、多分量的MUSIC方法等。
ARMA谱估计叫做自回归移动平均谱估计,它是一种模型化方法。
由于具有广泛的代表性和实用性,ARMA谱估计在近十几年是现代谱估计中最活跃和最重要的研究方向之一。
二:AR参数估计及其SVD—TLS算法。
谱分析方法要求ARMA模型的阶数和参数以及噪声的方差已知.然而这类要求在实际中是不可能提供的,即除了一组样本值x(1),x(2),…,x(T)以供利用(有时会有一定的先验知识)外,再没有其它可用的数据.因此必须估计有关的阶数和参数,以便获得谱密度的估计.在ARMA定阶和参数之估计中,近年来提出了一些新算法,如本文介绍的SVD—TLS算法便是其中之一。
三:实验结果分析和展望1,样本数多少对估计误差的影响。
(A=[1,0.8,-0.68,-0.46])图1上部分为N=1000;
下部分为取相同数据的前N=50个数据产生的结果。
图1N数不同:子图一N=1000,子图二N=200,子图三N=50由图可知,样本数在的多少,在对功率谱估计的效果上有巨大的作用,特别在功率谱密度函数变化剧烈的地方,必须有足够多的数据才能完整的还原原始功率谱密度函数。
2,阶数大小对估计误差的影响。
A=[1,-0.9,0.76]A=[1,-0.9,0.76,-0.776]图二阶数为二阶和三阶功率密度函数图A=[1,-0.9,0.86,-0.96,0.7]A=[1,-0.9,0.86,-0.96,0.7,-0.74]图三阶数为三阶和四阶功率密度函数图如图所示,阶数相差不是很大时,并不能对结果产生较大的影响。
但是阶数太低,如图二中二阶反而不能很好的估计出原始值。
3,样本点分布对估计误差对于相同的A=[1,-0.9,0.86,-0.96,0.7];
样本的不同,在估计时的误差是不可避免的。
因此,我们在取得样本时,应该尽可能的减少不必要的误差。
图四:不同的样本得到不同的估计值4,奇异值的阈值判定范围不同对结果的影响。
上图是取奇异值的阈值大于等于0.02,而下图是取阈值大于等于0.06,显然在同种数据下,阈值的选取和最终结果有密切关系。
由于系数矩阵和其真实值的逼近的精确度取决于被置零的那些奇异值的平方和。
所以选取太小,导致阶数增大,选取太大会淘汰掉真实的系数。
根据经验值,一般取0.05左右为最佳。
2025/4/16 9:53:51 1KB arma matlab
1
本文将基于遗传算法(GeneticAlgorithms,GA)优化的改进广义回归神经网络(ImprovedGeneralRegressionNeuralNetworkbasedonGA,GRNNGA)做为NSSF(NetworkSecuritySituationForecas)网络安全态势预测。
GRNNGA方法先利用滑动时间窗(SlidingTimeWindow,STW)将各离散时间监测点的网络安全态势值(NetworkSecuritySituationValue,NSSV)构造成部分线性相关的多元回归数据序列,再利用GA动态地搜索GRNN的最优训练参数,以改善基于GRNNGA的NSSF性能。
经大量实验验证,基于GRNNGA的NSSF方法具有更高的预测精度和实用性
2025/4/16 5:37:11 1.64MB 态势预测 遗传算法
1
矩阵求导详细手册-求导运算公式表文献及-PPT,文献为斯坦福大学数学系推导和总结的矩阵求导运算表,PPT为一些矩阵求导运算规则。
是我在看机器学习线性回归推导时时候要用到的内容,网上比较后找了这两个质量比较高的资料,超值了。
1
何晓群版应用回归分析第四版课后答案完整版!!!!!!
2025/4/5 16:26:25 293KB 应用回归分析 何晓群版
1
题目在下面,通过SPSS做的回归分析小论文,原理操作都很详细。
一:某公司在各地区销售一种特殊的化妆品。
该公司观测了15个城市在某季度内对该化妆品的销售量Y及各地区适合使用该化妆品的人数X1和人均收入X2,得到数据如表所示。
假设误差服从正态分布N(0,)试建立Y与X1,X2之间的线性回归方程并研究相应的统计推断问题(数据略)。
内容要求包括:(1)数据描述性分析,自变量与因变量线性关系预判断;
(2)回归分析,模型检验,系数检验;
(3)多重共线性检验,DW检验;
(4)残差分析。
二:下面是我国1990到2013年的一些经济数据,请做回归分析(数据略)。
2025/4/1 5:04:53 259KB data analysis
1
DeepLearningToolbox™提供了一个框架,用于设计和实现具有算法,预训练模型和应用程序的深度神经网络。
您可以使用卷积神经网络(ConvNets,CNN)和长期短期记忆(LSTM)网络对图像,时间序列和文本数据进行分类和回归。
应用程序和图表可帮助您可视化激活,编辑网络体系结构以及监控培训进度。
对于小型训练集,您可以使用预训练的深层网络模型(包括SqueezeNet,Inception-v3,ResNet-101,GoogLeNet和VGG-19)以及从TensorFlow™-Keras和Caffe导入的模型执行传输学习。
了解深度学习工具箱的基础知识深度学习图像从头开始训练卷积神经网络或使用预训练网络快速学习新任务使用时间序列,序列和文本进行深度学习为时间序列分类,回归和预测任务创建和训练网络深度学习调整和可视化绘制培训进度,评估准确性,进行预测,调整培训选项以及可视化网络学习的功能并行和云中的深度学习通过本地或云中的多个GPU扩展深度学习,并以交互方式或批量作业培训多个网络深度学习应用通过计算机视觉,图像处理,自动驾驶,信号和音频扩展深度学习工作流程深度学习导入,导出和自定义导入和导出网络,定义自定义深度学习图层以及自定义数据存储深度学习代码生成生成MATLAB代码或CUDA®和C++代码和部署深学习网络函数逼近和聚类使用浅层神经网络执行回归,分类和聚类时间序列和控制系统基于浅网络的模型非线性动态系统;使用顺序数据进行预测。
2025/3/29 11:02:30 14.06MB deep l matlab 深度学习
1
通过CB、CF算法实现召回,LR逻辑回归算法实现精排序,pythonWeb实现的web页面
129.84MB CB CF LR 逻辑回归
1
印第安人糖尿病数据集,波士顿房价数据集合集。
用于数据回归分析等。
2025/3/19 7:37:52 21KB housing.csv pima_data.cs
1
共 488 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡