Softplus函数相关论文
修正线性单元(rectified linear unit,ReLU)是深度卷积神经网络常用的激活函数,但当输入为负数时,ReLU的输出为零,造成了零梯度问题;......
为提高Softplus函数在神经网络中的性能,针对Softplus函数的缺点提出了一种基于改进Softplus激活函数的卷积神经网络模型。根据“......
为了提高预测模型的精度,提出一种基于Softplus激活函数的双隐含层BP神经网络的预测方法,提高了模型的非线性学习和泛化能力及预测......