补:PCA降维

喜欢ヅ旅行 2024-02-19 14:25 152阅读 0赞

结合网上的资料,细看了两种求解PCA的方式。当进行协方差矩阵上求解特征值时,若矩阵的维数较小,则可以使用传统的求解方式,直接求出协方差矩阵的所有特征值和对应的特征向量。但是如果是用在图片方面,加入一张100*100的图片,特征维度高达10000维,协方差矩阵则是10000*10000这种级别,这将耗费的计算量呈平方级增长。面对这样一个难点,用传统方法求解不现实,因此引出奇异值分解(SVD),利用SVD不仅可以解出PCA的解,而且无需大的计算量。奇异值分解的基本公式20181209110859522.png ,其中, 2018120911092969.png除了主对角线上的元素以外全为0,主对角线上的每个元素都称为奇异值,且已按大小排序。20181209110949653.png 的列向量即是20181209111001730.png 的特征向量;20181209111014902.png 的列向量是20181209111037114.png 的特征向量。在看这些数学推导的时候,感觉到自己数学基础还是很薄弱,花了不少时间去补数学知识。

PCA降维—参考文献

[1] Jon Shlens. A Tutorial on Principal Component Analysis-Derivation, Discussion and Singular Value Decomposition. 2003

[2] J. Yang, D. Zhang, A. Frangi, and J. Yang. Two-Dimensional PCA: A New Approach to Appearance-Based Face Representation and Recognition. IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 26, no. 1, pp. 131–137, 2004.

[3] L. Sirovich and M. Kirby. Low-Dimensional Procedure for Characterization of Human Faces. J. Optical Soc. Am., vol. 4, pp. 519-524, 1987.

[4] M. Kirby and L. Sirovich. Application of the KL Procedure for the Characterization of Human Faces. IEEE Trans. Pattern Analysis and Machine Intelligence, vol. 12, no. 1, pp. 103- 108, Jan. 1990.

[5] Zhang D, Zhou Z H. (2D)2: Two-directional two-dimensional PCA for efficient face representation and recognition[J]. Neurocomputing, 69(1):224-231,2005.

[6] G. E. Hinton, R. R. Salakhutdinov. Reducing the dimensionality of data with neural networks. Science 313 (5786): 504-507, 2006.

[7] Nawaf Hazim Barnouti. Face recognition using pca-bpnn with dct implemented on face94 and grimace databases. International Journal of Computer Applications 142(6):8-13 · May 2016

[8] Sun Y, Wang X, Tang X. Deep Learning Face Representation from Predicting 10,000 Classes[C]// IEEE Conference on Computer Vision and Pattern Recognition. IEEE Computer Society, 2014:1891-1898.

发表评论

表情:
评论列表 (有 0 条评论,152人围观)

还没有评论,来说两句吧...

相关阅读

    相关 PCA

    结合网上的资料,细看了两种求解PCA的方式。当进行协方差矩阵上求解特征值时,若矩阵的维数较小,则可以使用传统的求解方式,直接求出协方差矩阵的所有特征值和对应的特征向量。但是如果

    相关 笔记:PCA

    作为一个非监督学习的降维方法,PCA(Principal Components Analysis)顾名思义,就是找出数据里最主要的方面,用数据里最主要的方面来代替原始数据。具体

    相关 ,PCA,SVD

    降维 > 机器学习的算法的计算量往往伴随着维度\\(d\\)的增长呈现指数型增长,例如线性感知机的VC维是\\(d+1\\) > > 去除无用的维度,保留有用的特征可以

    相关 PCA

    概念 在机器学习中经常会碰到一些高维的数据集,而在高维数据情形下会出现数据样本稀疏,距离计算等困难,这类问题是所有机器学习方法共同面临的严重问题,称之为“ 维度灾难 ”。

    相关 PCA原理

    PCA最重要的降维方法之一,在数据压缩消除冗余和数据噪音消除等领域都有广泛的应用,一般我们提到降维最容易想到的算法就是PCA,目标是基于方差提取最有价值的信息,属于无监督问题。

    相关 PCA分析

    这里写目录标题 PCA降维的优化目标为: 关于为什么对协方差矩阵求特征值和特征向量可以实现各个变量两两间协方差为0,而变量方差尽可能大 > 参考博客:htt

    相关 PCA简介

    PCA全称为principal component analysis,即主成成分分析,用于降维。对数据进行降维有很多原因。比如: 1:使得数据更易显示,更易懂 2:降低