深度学习笔记

写在前面

最近大创要用深度学习,就看吴恩达的视频浅学了一下,记录一下自己的整理和想法。

logistic回归

二分类问题

求出预测值

可以简单的理解为,给你一个输入向量$x$,输出$P(y=1|x)$

训练参数:$w,b$

$$ \hat{y}=sigmoid(w^Tx+b) $$

这里的$sigmoid$是一个激活函数,有$sigmoid(x)=\frac{1}{1+e^{-x}}$使得$\hat{y}$在$(0,1)$间

损失函数

可以理解为输出值与实际值有多接近

$$ L(\hat{y},y)=-y\log(\hat{y})-(1-y)\log(1-\hat{y}) $$

梯度下降

对上式求导,更新$w,b$

$$ w=w−α∗\frac{dL}{dw} \\ b=b−α∗\frac{dL}{db} $$

这里的$\alpha$称为学习率

SoftMax

$$ Softmax(z_{i})=\frac{e^{z_{i}}}{\sum_{c = 1}^{C}{e^{z_{c}}}} $$

神经网络

基本结构

2022-09-26T13:17:59.png

2022-09-26T13:18:13.png

2022-09-26T13:18:24.png

2022-09-26T13:18:33.png

激活函数

2022-09-26T13:18:40.png

一些优化

动量梯度下降法

2022-09-26T13:18:52.png

$v_x = \beta v_{x-1}+(1-\beta)dx$

可以看成是$x$前面$\frac{1}{1-\beta}$项的平均数

2022-09-26T13:18:58.png

RMSprop

2022-09-26T13:19:06.png

Adam

2022-09-26T13:19:13.png