ReLU是一个激活函数,卷积神经网络中,使用该函数的作用是去除卷积结果中的负值,保留正值不变。
ReLU激活函数只在输入大于0时才激活一个节点,当输入小于0时,输出为零,当输入大于0时,输出等于输入。
ReLU激活函数图:
下面是一些例子,不同输入值经过ReLU后得到的输出:
ReLU的作用
卷积神经网络中,使用ReLU函数的作用是去除卷积结果中的负值,保留正值不变。
第1个值经过ReLu函数处理后的值:
第2个值经过ReLu函数处理后的值:
全部值经过ReLu函数处理后,我们得到了以下输出:
现在,同样地,我们对所有其他的特征图像也做同样的处理: