在现实生活中,往往存在着大量多维数据,例如视频流数据,文本数据,RGB图像等。
传统的方法往往通过某种方式将多维数据重新排列成矩阵方式,利用矩阵分析方法,例?蛔PCA,SVD,NMF,进行特征提取、聚类、分类等操作,这无疑破坏了数据原本的空间结构,增加了分析结果的不准确性,而张量在分析数据的同时,能够保持多维数据的空间结构不被破坏,这极大地引起了学者们的研究热情。
张量即多维数组,它是向量和矩阵在高维上的推广,目前被广泛应用在计算机视觉、数据挖掘、信号处理等领域。
本文着重研究三阶非负张量分解问题,回顾三阶张量的非负分解模型(NTVl,阐述了算法的思想及实现过程。
接着,从张量投影的角度出发,建立了基于张量投影的非负分解模型(NTPM),阐述了模型的想法,并给出了相应的算法公式。
在收敛性分析中,给出并证明了模型KKT条件的一个等价方式以及算法收敛性定理。
实验结果表明基于张量投影的非负分解模型,相比于原有的非负分解模型,在运行时间以及逼近误差上有了一定程度的改进。
最后,讨论了NTPM模型今后研究的方向。
2020/1/16 23:33:02 2.75MB 张量分解
1
High-DimensionalStatisticsANon-AsymptoticViewpointbyMartinJ.Wainwright,UniversityofCalifornia,Berkeley。
2019年CambridgeUniversityPress旧书,高维统计经典教材,统计学习理论重要书籍。
2015/5/13 15:49:43 4.85MB 高维统计 机器学习理论 概率
1
本文设计了一种基于支持向量机(SVM)的运动目标识别算法,以对运动目标进行准确的识别和分类。
鉴于支持向量机在小样本,非线性和高维模式识别方面的优势,构造了一种基于支持向量机的分类器。
利用形状特征构成的特征向量分类样本对支持向量机进行训练和分类,结合支持向量机和二叉决策树构成多分类器。
对象特征向量用作SVM的输入,我们将使用分类器对检测到的运动对象进行分类。
实验结果表明,该算法能够准确识别和分类视频图像中的不同对象。
2021/9/4 2:30:54 299KB Object recognition support vector
1
本来代码是关于LPP算法的matlab编程,流形算法的次要思想是能够学习高维空间中样本的局部邻域结构,并寻找一种子空间能够保留这种流行结构,使得样本在投影到低维空间后,得到比较好的局部近邻关系。
2020/5/16 14:32:37 9KB LPP matlab
1
作者:Vidal,René,Ma,Yi,Sastry,S.S.2016年新书。
据作者说:研究unsupervisedlearning,从一百多年前的PCA讲到压缩感知,知识纵跨上百年。
横跨代数几何,数理统计,高维数据处理,优化算法。
而使用更涉及科学和工程各个领域,是数据科学的入门基础
2021/7/2 18:56:05 12.84MB PCA GPCA unsupervised learning
1
计算混沌系统的李雅普诺夫指数,稳定体系的相轨线相应于趋向某个平衡点,如果出现越来越远离平衡点,则系统是不稳定的。
系统只要有一个正值就会出现混沌运动。
判断一个非线性系统能否存在混沌运动时,需要检查它的李雅普诺夫指数λ能否为正值。
在高维相空间中大于零的李雅普诺夫指数可能不止一个,这样体系的运动将更为复杂。
人们称高维相空间中有多个正值指数的混沌为超混沌。
推广到高维空间后,有指数(λ1,λ2,λ3,···)的值决定的各种类型的吸引子可以归纳为
2017/9/22 20:41:11 53KB lte
1
基于RRT的路径规划算法,通过对状态空间中的采样点进行碰撞检测,避免了对空间的建模,能够有效地处理高维空间和复杂约束的路径规划问题,C++实现图片代替栅格
1
说明,这个matlab程序的目标是对BP神经网络中的神经元连接权和阈值构成的高维参数空间进行最优求解,试图用PSO算法求解神经网络中的参数,而不是用传统的误差反传算法。
但由于经典粒子群算法存在局部最优的问题。
该算法也存在同样的问题。
该算法在迭代数较大时可以基本做到误差较大的函数拟合。
但是通过该资源提供的图解和代码正文,用户可以很容易的学习到PSO算法的过程。
至于如何突破局部最优,这个就有待各位PSO爱好者进行优化了。
2019/10/16 13:18:03 582KB 粒子群 PSO BP 曲线拟合
1
相关向量机的MATLAB代码,经过验证是正确的,很实用推荐相关向量机(Relevancevectormachine,简称RVM)是Tipping在2001年在贝叶斯框架的基础上提出的,它有着与支持向量机(Supportvectormachine,简称SVM)一样的函数方式,与SVM一样基于核函数映射将低维空间非线性问题转化为高维空间的线性问题。
RVM原理步骤RVM通过最大化后验概率(MAP)求解相关向量的权重。
对于给定的训练样本集{tn,xn},类似于SVM,RVM的模型输出定义为y(x;w)=∑Ni=1wiK(X,Xi)+w0其中wi为权重,K(X,Xi)为核函。
因此对于,tn=y(xn,w)+εn,假设噪声εn服从均值为0,方差为σ2的高斯分布,则p(tn|ω,σ2)=N(y(xi,ωi),σ2),设tn独立同分布,则整个训练样本的似然函数可以表示出来。
对w与σ2的求解如果直接使用最大似然法,结果通常使w中的元素大部分都不是0,从而导致过学习。
在RVM中我们想要避免这个现像,因此我们为w加上先决条件:它们的机率分布是落在0周围的正态分布:p(wi|αi)=N(wi|0,α?1i),于是对w的求解转化为对α的求解,当α趋于无穷大的时候,w趋于0.RVM的步骤可以归结为下面几步:1.选择适当的核函数,将特征向量映射到高维空间。
虽然理论上讲RVM可以使用任意的核函数,但是在很多应用问题中,大部分人还是选择了常用的几种核函数,RBF核函数,Laplace核函数,多项式核函数等。
尤其以高斯核函数应用最为广泛。
可能于高斯和核函数的非线性有关。
选择高斯核函数最重要的是带宽参数的选择,带宽过小,则导致过学习,带宽过大,又导致过平滑,都会引起分类或回归能力的下降2.初始化α,σ2。
在RVM中α,σ2是通过迭代求解的,所以需要初始化。
初始化对结果影响不大。
3.迭代求解最优的权重分布。
4.预测新数据。
2021/2/5 11:51:53 17KB 相关向量机 rvm
1
用于函数优化的五个测试函数,DeJong精选了5个测试函数,这些函数差异表现在连续性、单峰与多峰、二次与非二次、低维与高维、确定函数与随机函数。
可以比较完整的测试算法功能。
2017/7/16 21:56:01 14KB De Jong 函数优化 源代码
1
共 53 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡