RNN中只能采用tanh而不是ReLu作为激活函数么?


BAT机器学习面试1000题之第88题
RNN中只能采用tanh而不是ReLu作为激活函数么?
已邀请:

飞龙

赞同来自:


看具体场景,比如我要预测某个时刻的用电量,用电量是个正值,显然 relu 合适。

如果我要预测事件流的未来情况,0 是不发生,1 是发生,显然 tanh 或者 sigmoid 合适。

要回复问题请先登录注册

返回顶部