样本协方差,随机变量协方差,协方差矩阵
矩阵的迹及特性
矩阵特征值
详细推导过程 对推导过程中式(5)到式(6)详细说明: 式(5)到式(6): 式5 求解的结果为一个常数: x ( i ) 为 n ∗ 1 的 向 x^{(i)} 为 n*1 的向 x(i)为n∗1的向, x ( i ) T x^{(i)T} x(i)T为1 * n, z ( i ) 同 理 为 n ′ ∗ 1 z^{(i)}同理为n'*1 z(i)同理为n′∗1 , 式5的第一项展开即为: − ( z ( 1 ) ∗ z ( 1 ) + z ( 2 ) ∗ z ( 2 ) . . . . + z ( m ) ∗ z ( m ) ) -(z^{(1)} * z^{(1)} + z^{(2)} * z^{(2)} ....+z^{(m)} * z^{(m)}) −(z(1)∗z(1)+z(2)∗z(2)....+z(m)∗z(m)) = -tr( z ( i ) T z ( i ) z^{(i)T}z^{(i)} z(i)Tz(i)) = -tr( z ( i ) z ( i ) T z^{(i)}z^{(i)T} z(i)z(i)T)
详细推导过程
输入: n维样本集D= ( x ( 1 ) , x ( 2 ) , . . . . . , x ( m ) ) (x^{(1)}, x^{(2)},.....,x^{(m)}) (x(1),x(2),.....,x(m)), 要降维到维数n’. 输出: 降维后的样本集D‘ 1)对所有的样本进行中心化: x ( i ) = x ( i ) − 1 m ∑ j = 1 m x ( j ) x^{(i)} = x^{(i)} - \frac{1}{m}\sum_{j=1}^{m}x^{(j)} x(i)=x(i)−m1∑j=1mx(j) 2) 计算样本的协方差矩阵 X X T XX^T XXT 3) 对矩阵 X X T XX^T XXT 进行特征值分解 4)取出最大的n’ 个特征值对应的特征向量 ( w 1 , w 2 , . . . . . , w n ′ ) (w_1,w_2,.....,w_{n'}) (w1,w2,.....,wn′), 将所有的特征向量标准化后,组成特征向量矩阵W。 5)对样本集中的每一个样本 x ( i ) x^{(i)} x(i), 转化成新的样本 x ( i ) = W T x ( i ) x^{(i)} = W^Tx^{(i)} x(i)=WTx(i) 6) 得到输出样本集 D ′ = ( z ( 1 ) , z ( 2 ) , . . . . . , z ( m ) ) D'=(z^{(1)},z{(2)},.....,z{(m)}) D′=(z(1),z(2),.....,z(m)) 有的时候,不能能指定降维后的n’,而是换种方式,制定一个降维到主成分比重阈值t, 这个阈值 t 在(0,1] 之间, 假如我们的n个特征值为λ1≥λ2≥…≥λn, 则n’ 可以通过下式得到: ∑ i = 1 n ′ λ i ∑ i = 1 n λ i ⩾ t \frac{\sum_{i=1}^{n'}\lambda_i}{\sum_{i=1}^{n}\lambda_i} \geqslant t ∑i=1nλi∑i=1n′λi⩾t
上面的PCA 算法中,我们假设存在一个线性的超平面, 可以让我们对数据进行投影,但有的时候,数据不是线性的,不能直接使用PCA 降维, 这里需要用到和支持向量机一样的核函数思想,先将数据从n维映射到线性可分的高维,N > n, 然后从N 维降到一个低维度n’.