RNN中为什么要采用tanh,而不是ReLU 作为激活函数 2023-11-23 494 在循环神经网络(RNN)中采用tanh,而不是ReLU 作为激活函数,涉及多个方面的考量:1.梯度消失问题;2.输出范围的考量;3.计算效率和模型性能平衡。在实际应用中,要根据具体问题和数据特点来选择 …