吴恩达老师机器学习课程chapter03——过拟合与正则化
吴恩达老师机器学习课程chapter03——过拟合与正则化
本文是非计算机专业新手的自学笔记,欢迎指正与其他任何合理交流。
本文仅作速查备忘之用,对应吴恩达(AndrewNg)老师的机器学期课程第七章。
目录
- 吴恩达老师机器学习课程chapter03——过拟合与正则化
- 基本概念
- 正则化
- 线性回归中的正则化
- 分类中的正则化
基本概念
特征选取过多,hθ(x)会对训练集学习得过好,以至于对新的样本的判断结果很差。
解决方法有二:
- 减少特征数目
- 手动选择
- 模型选择算法
- 正则化
- 减少某些特征的参数θ,即降低其权重。
正则化
线性回归中的正则化
修改代价函数:
\[J(\theta)=\frac{1}{2 m}\left[\sum_{i=1}^{m}\left(h_{\theta}\left(x^{(i)}\right)-y^{(i)}\right)^{2} +\lambda \sum_{}^{} \theta_{j}^{2}\right] \]于是,进行梯度下降法时候,对于需要参与正则化的θj,其迭代也要做相对的修改,改为:
\[\theta_{j}=\theta_{j}-\alpha\left[\frac{1}{m} \sum_{i=1}^{m}\left(h_{\theta}\left(x^{(i)}\right)-y^{(i)}\right) x_{j}^{(i)}+ \frac{\lambda}{m} \theta_{j}\right] \]进行正规方程法时候,需要作出修改如下:
\[\theta =(X^TX+\lambda diag(a_{1}\cdots a_{m} ))^{-1}X^Ty \]其中diag表示对角矩阵,若第j个参数不参与正则化,则aj=0;否则,aj=1。
分类中的正则化
与线性中的同理: