吴恩达老师机器学习课程chapter08——降维
吴恩达老师机器学习课程chapter08——降维
本文是非计算机专业新手的自学笔记,高手勿喷。
本文仅作速查备忘之用,对应吴恩达(AndrewNg)老师的机器学期课程第十四章。
本章节只有结论,没有任何推演过程,仅作了解入门。
目录
- 吴恩达老师机器学习课程chapter08——降维
- 基本概念
- 主成分分析法(Principal Component Analysis)
- 操作
- 主成分数k的选择
- 重构
基本概念
降维操作可以压缩数据以节约内存,加速算法;还可以为可视化提供便利。
比如,从二维降维至一维:
比如,从三维降维至二维:
主成分分析法(Principal Component Analysis)
PCA要做的,是寻找到高维空间中,类似于图中红线,而不是图中洋红线,这样的平面。通过这些平面对数据进行降维操作。
样本在这些平面上的投影记作记作\(x^{(i)}_{approx}\)。
要最小化的是平方投影误差。这与回归算法是有区别的。下图中,左侧是回归算法,右侧是PCA算法:
操作
课程中只给出了PCA的操作步骤,没有任何推导:
首先,计算矩阵
\[\Sigma=\frac{1}{m} \sum_{i=1}^{n}\left(x^{(i)}\right)\left(x^{(i)}\right)^{T} \]之后,进行SVD操作,即奇值分解(Singular Value Decomposition)。这里没有说明具体操作。
得到U矩阵的形状为 n x m,取前 k列,得到新的矩阵——形状为n x k的\(U_{reduce}\)。
$ z^{(i)} = U_{reduce}^T \times x^{(i)}$。完成降维操作。
主成分数k的选择
选择的K值应当使得
\[\frac{ 平均投影误差平方(average\ squared\ projection\ components) }{ 数据总方差(total\ total variation\ in \ the \ deta ) } \le 0.01 \]也就叫做 “ 保留99%的方差性 ”。95%、90%、85%也是常用的。
另有计算方法如下:
在奇值分解过程中还会得到n x n的S矩阵,\(s_{ii}\)表示S矩阵对角线元素。
K的选择需要满足:
\[1-\frac{\sum_{i=1}^{k} S_{i i} }{\sum_{i=1}^{n} S_{i i} } \leqslant 0.01 \]这里0.01与上一种方法的含义是一样的。
重构
重构指的是将降维过的数据还原回原本数据的过程。
压缩重现计算方法为 $ x_{approx}^{(i)} = U_{reduce}^T \times z^{(i)}$
- PCA并不总是解决过拟合的好办法。
- 先不使用PCA,之后在考察是否需要PCA。