深度学习 – 卷积神经网络:ReLU层

ReLU是一个激活函数,卷积神经网络中,使用该函数的作用是去除卷积结果中的负值,保留正值不变。

ReLU激活函数只在输入大于0时才激活一个节点,当输入小于0时,输出为零,当输入大于0时,输出等于输入。

ReLU激活函数图:

图

下面是一些例子,不同输入值经过ReLU后得到的输出:

图

ReLU的作用

卷积神经网络中,使用ReLU函数的作用是去除卷积结果中的负值,保留正值不变。

第1个值经过ReLu函数处理后的值:

图

第2个值经过ReLu函数处理后的值:

图

全部值经过ReLu函数处理后,我们得到了以下输出:

图

现在,同样地,我们对所有其他的特征图像也做同样的处理:

图



浙ICP备17015664号 浙公网安备 33011002012336号 联系我们 网站地图  
@2019 qikegu.com 版权所有,禁止转载