LDA资料(文章+源代码)就有lda的源码分析,又包含源代码
2024/12/16 6:17:18 5.01MB LDA
1
用C++实现的lda和pca
2024/10/31 2:56:12 3.75MB pca lda
1
这个Matlab工具箱实现32种维数降低技术。
这些技术都可以通过COMPUTE_MAPPING函数或trhoughGUI。
有以下技术可用: -主成分分析('PCA') -线性判别分析('LDA') -多维缩放('MDS') -概率PCA('ProbPCA') -因素分析('因子分析') -Sammon映射('Sammon') -Isomap('Isomap') -LandmarkIsomap('LandmarkIsomap') -局部线性嵌入('LLE') -拉普拉斯特征图('Laplacian') -HessianLLE('HessianLLE') -局部切线空间对准('LTSA') -扩散图('DiffusionMaps') -内核PCA('KernelPCA') -广义判别分析('KernelLDA') -随机邻居嵌入('SNE') -对称随机邻接嵌入('SymSNE') -t分布随机邻居嵌入('tSNE') -邻域保留嵌入('NPE') -线性保持投影('LPP') -随机接近嵌入('SPE') -线性局部切线空间对准('LLTSA') -保形本征映射('CCA',实现为LLE的扩展) -最大方差展开('MVU',实现为LLE的扩展) -地标最大差异展开('地标MVU') -快速最大差异展开('FastMVU') -本地线性协调('LLC') -歧管图表('ManifoldChart') -协调因子分析('CFA') -高斯过程潜变量模型('GPLVM') -使用堆栈RBM预训练的自动编码器('AutoEncoderRBM') -使用进化优化的自动编码器('AutoEncoderEA')此外,工具箱包含6种内在维度估计技术。
这些技术可通过INTRINSIC_DIM函数获得。
有以下技术可用: -基于特征值的估计('EigValue') -最大似然估计器('MLE') -基于相关维度的估计器('CorrDim') -基于最近邻域评估的估计器('NearNb') -基于包装数量('PackingNumbers')的估算器 -基于测地最小生成树('GMST')的估计器除了这些技术,工具箱包含用于预白化数据(函数PREWHITEN),精确和估计样本外扩展(函数OUT_OF_SAMPLE和OUT_OF_SAMPLE_EST)的函数以及生成玩具数据集(函数GENERATE_DATA)的函数。
工具箱的图形用户界面可通过DRGUI功能访问
2024/9/5 12:27:19 1.06MB matlab,降维
1
本matlab工具箱包含目前大多数的降维技术,包括PCA,LDA,MDS,ProbPCA,Isomap,LLE,Laplacian,KernelPCA,KernelLDA,CCA,MCML,LPP。
2024/8/13 4:15:45 2.13MB 降维 matlab PCA LDA
1
PCA+LDA+KNN人脸识别的程序,经过测试程序是可以运行的
2024/8/10 5:12:12 4.03MB PCALDAKNN
1
现在我们回到LDA的原理上,我们在第一节说讲到了LDA希望投影后希望同一种类别数据的投影点尽可能的接近,而不同类别的数据的类别中心之间的距离尽可能的大,但是这只是一个感官的度量。
现在我们首先从比较简单的二类LDA入手,严谨的分析LDA的原理。
    假设我们的数据集D={(x1,y1),(x2,y2),...,((xm,ym))}D={(x1,y1),(x2,y2),...,((xm,ym))},其中任意样本xixi为n维向量,yi∈{0,1}yi∈{0,1}。
我们定义Nj(j=0,1)Nj(j=0,1)为第j类样本的个数,Xj(j=0,1)Xj(j=0,1)为第j类样本的集合,而μj(j=0,1)μj(j=0,1)为第j类样本的均值向量,定义Σj(j=0,1)Σj(j=0,1)为第j类样本的协方差矩阵(严格说是缺少分母部分的协方差矩阵)。
    μjμj的表达式为:μj=1Nj∑x∈Xjx(j=0,1)μj=1Nj∑x∈Xjx(j=0,1)    ΣjΣj的表达式为:Σj=∑x∈Xj(x−μj)(x−μj)T(j=0,1)Σj=∑x∈Xj(x−μj)(x−μj)T(j=0,1)    由于是两类数据,因此我们只需要将数据投影到一条直线上即可。
假设我们的投影直线是向量ww,则对任意一个样本本xixi,它在直线ww的投影为wTxiwTxi,对于我们的两个类别的中心点μ0,μ1μ0,μ1,在在直线ww的投影为wTμ0wTμ0和wTμ1wTμ1。
由于LDA需要让不同类别的数据的类别中心之间的距离尽可能的大,也就是我们要最大化||wTμ0−wTμ1||22||wTμ0−wTμ1||22,同时我们希望同一种类别数据的投影点尽可能的接近,也就是要同类样本投影点的协方差wTΣ0wwTΣ0w和wTΣ1wwTΣ1w尽可能的小,即最小化wTΣ0w+wTΣ1wwTΣ0w+wTΣ1w。
综上所述,我们的优化目标为:argmaxwJ(w)=||wTμ0−wTμ1||22wTΣ0w+wTΣ1w=wT(μ0−μ1)(μ0−μ1)TwwT(Σ0+Σ1)wargmax⏟wJ(w)=||wTμ0−wTμ1||22wTΣ0w+wTΣ1w=wT(μ0−μ1)(μ0−μ1)TwwT(Σ0+Σ1)w    我们一般定义类内散度矩阵SwSw为:Sw=Σ0+Σ1=∑x∈X0(x−μ0)(x−μ0)T+∑x∈X1(x−μ1)(x−μ1)TSw=Σ0+Σ1=∑x∈X0(x−μ0)(x−μ0)T+∑x∈X1(x−μ1)(x−μ1)T    同时定义类间散度矩阵SbSb为:Sb=(μ0−μ1)(μ0−μ1)TSb=(μ0−μ1)(μ0−μ1)T    这样我们的优化目标重写为:argmaxwJ(w)=wTSbwwTSwwargmax⏟wJ(w)=wTSbwwTSww    仔细一看上式,这不就是我们的广义瑞利商嘛!这就简单了,利用我们第二节讲到的广义瑞利商的性质,我们知道我们的J(w)J(w)最大值为矩阵S−12wSbS−12wSw−12SbSw−12的最大特征值,而对应的ww为S−12wSbS−12wSw−12SbSw−12的最大特征值对应的特征向量!而S−1wSbSw−1Sb的特征值和S−12wSbS−12wSw−12SbSw−12的特征值相同,S−1wSbSw−1Sb的特征向量w′w′和S−12wSbS−12wSw−12SbSw−12的特征向量ww满足w′=S−12www′=Sw−12w的关系!    注意到对于二类的时候,SbwSbw的方向恒为μ0−μ1μ0−μ1,不妨令Sbw=λ(μ0−μ1)Sbw=λ(μ0−μ1),将其带入:(S−1wSb)w=λw(Sw−1Sb)w=λw,可以得到w=S−1w(μ0−μ1)w=Sw−1(μ0−μ1),也就是说我们只要求出原始二类样本的均值和方差就可以确定最佳的投影方向ww了。
2024/7/30 21:57:26 3KB MATLAB 人脸识别 LDA knn
1
原创,测试识别率0.99,重构图像完全比不上PCA,但能满足分类要求。
可下载后直接运行,并保存特征向量数据
2024/7/21 9:08:02 5.1MB LDA 人脸识别
1
针对中文短文本篇幅较短、特征稀疏性等特征,提出了一种基于隐含狄利克雷分布模型的特征扩展的短文本分类方法。
在短文本原始特征的基础上,利用LDA主题模型对短文本进行预测,得到对应的主题分布,把主题中的词作为短文本的部分特征,并扩充到原短文本的特征中去,最后利用SVM分类方法进行短文本的分类。
实验表明,该方法在性能上与传统的直接使用VSM模型来表示短文本特征的方法相比,对不同类别的短文本进行分类,都有不同程度的提高与改进,对于短文本进行补充LDA特征信息的方法是切实可行的。
2024/7/6 6:33:32 1.14MB LDA 短文本分类
1
这是一个LDA算法,有实例分析,并给出数据进行验证预测。
对于初学者很有帮助。
2024/6/25 3:31:53 6KB LDA MATLAB 实例 投影
1
本资源包含python实现的LDA和PCA数据降维算法,包含测试数据,下载后直接使用。
供学习参考
2024/5/20 18:18:29 207KB LDA PCA 数据分析 降维算法
1
共 61 条记录 首页 上一页 下一页 尾页
在日常工作中,钉钉打卡成了我生活中不可或缺的一部分。然而,有时候这个看似简单的任务却给我带来了不少烦恼。 每天早晚,我总是得牢记打开钉钉应用,点击"工作台",再找到"考勤打卡"进行签到。有时候因为工作忙碌,会忘记打卡,导致考勤异常,影响当月的工作评价。而且,由于我使用的是苹果手机,有时候系统更新后,钉钉的某些功能会出现异常,使得打卡变得更加麻烦。 另外,我的家人使用的是安卓手机,他们也经常抱怨钉钉打卡的繁琐。尤其是对于那些不太熟悉手机操作的长辈来说,每次打卡都是一次挑战。他们总是担心自己会操作失误,导致打卡失败。 为了解决这些烦恼,我开始思考是否可以通过编写一个全自动化脚本来实现钉钉打卡。经过一段时间的摸索和学习,我终于成功编写出了一个适用于苹果和安卓系统的钉钉打卡脚本。
2024-04-09 15:03 15KB 钉钉 钉钉打卡