找答案
考试指南
试卷
请在
下方输入
要搜索的题目:
搜 索
训练神经网络时,以下哪种激活函数最容易造成梯度消失?
A、tanh
B、sigmoid
C、relu
D、leaky ReLU
发布时间:
2025-05-08 14:16:54
首页
执业药师继续教育
推荐参考答案
(
由 快搜搜题库 官方老师解答 )
联系客服
答案:
sigmoid
相关试题
1.
训练神经网络时,以下哪种激活函数最容易造成梯度消失?
2.
Sigmoid激活函数可能会导致梯度消失;然而Tanh激活函数不会导致这个问题
3.
下列哪些方案可以缓解深度神经网络中的梯度消失问题?A、使用sigmoid激活函数B、使用tanh激活函数C、使用ReLU激活函数D、使用残差连接
4.
将Sigmoid激活函数改为ReLu,将有助于克服梯度消失问题。( )
5.
激活函数是非线性的,以下哪些激活函数是神经网络中常用的激活函数:
6.
以下哪个不可以用作神经网络中激活函数的是( )。
7.
在神经网络中,常用的激活函数有
8.
Sigmoid激活函数在神经网络中引入了非线性。
9.
神经网络在学习时是以损失函数的梯度信息为线索来找最优参数。( )
10.
人工神经网络常见的激活函数形式有哪几种?BP网络中采用的激活函数是那种形式?
热门标签
粉笔行测题库
职业教育题库
结构化面试题库及答案
图形推理题库及答案
消防员题库
职称计算机题库
试题库在线
信息技术考试题库
行测常识题库
行政管理题库及答案
公共基础知识考试题库
药师考试题库
交通考试题库
教师招聘题库
初级考试题库
执业中药师考试题库及答案
中公教育题库
公务员考试题库
公务员题库及答案
综合知识考试题库