常见的神经网络激活函数

1.线性激活函数

​ 线性激活函数的存在恰恰证明了需要非线性激活函数的存在,因为多个线性激活函数(多个隐藏层)神经网络与只有一个线性激活函数隐藏层的神经网络一样。

2.sigmoid 函数(logistic回归使用的激活函数)

a=g(z)=11+eza = g(z) = \frac{1}{1+e^{-z}}

alt

导数:g(z)=g(z)(1g(z))导数: g'(z) = g(z)*(1 - g(z))

3. tanh函数

a=g(z)=ezezez+eza = g(z) = \frac{e^z-e^{-z}}{e^z+e^{-z}}

alt

​ tanh 函数是由sigmoid 函数平移收缩得到。

4.relu 函数

a=g(z)=max(0,z)g(z)={1,z>0undefined,z=00,z<0a = g(z) = max(0,z) \\ \\ g'(z) = \begin{cases} 1,z>0\\\\undefined,z=0\\\\0,z<0\end{cases}

alt