找答案
考试指南
试卷
请在
下方输入
要搜索的题目:
搜 索
训练神经网络时,以下哪种激活函数最容易造成梯度消失?
A、tanh
B、sigmoid
C、relu
D、leaky ReLU
发布时间:
2025-05-08 14:16:54
首页
执业药师继续教育
推荐参考答案
(
由 快搜搜题库 官方老师解答 )
联系客服
答案:
sigmoid
相关试题
1.
训练神经网络时,以下哪种激活函数最容易造成梯度消失?
2.
Sigmoid激活函数可能会导致梯度消失;然而Tanh激活函数不会导致这个问题
3.
将Sigmoid激活函数改为ReLu,将有助于克服梯度消失问题。( )
4.
激活函数是非线性的,以下哪些激活函数是神经网络中常用的激活函数:
5.
以下哪个不可以用作神经网络中激活函数的是( )。
6.
在神经网络中,常用的激活函数有
7.
Sigmoid激活函数在神经网络中引入了非线性。
8.
深度学习是含有一个隐含层的多层神经网络模型的强化学习,训练过程加入了激活函数。
9.
反向传播的作用是训练模型参数,在所有参数上用梯度下降,使神经网络模型在训练数据上的损失函数最大。( )
10.
在深度学习中,梯度消失问题通常发生在循环神经网络(RNN)中。( )
热门标签
军队文职考试题库
警察考试题库
社区工作者考试题库
公文写作题库
招警考试题库
模拟考试题库
教师资格证试讲题库
消防工程师题库
公务员面试题库
教师证题库
智能题库
山东事业编题库
银行从业资格证题库
行测题库及答案解析
公考对题库
华图教育题库
行测题库软件
考试题库网
政治理论题库
国家试题库