找答案
考试指南
试卷
请在
下方输入
要搜索的题目:
搜 索
训练神经网络时,以下哪种激活函数最容易造成梯度消失?
A、tanh
B、sigmoid
C、relu
D、leaky ReLU
发布时间:
2025-05-08 14:16:54
首页
执业药师继续教育
推荐参考答案
(
由 快搜搜题库 官方老师解答 )
联系客服
答案:
sigmoid
相关试题
1.
训练神经网络时,以下哪种激活函数最容易造成梯度消失?
2.
Sigmoid激活函数可能会导致梯度消失;然而Tanh激活函数不会导致这个问题
3.
下列哪些方案可以缓解深度神经网络中的梯度消失问题?A、使用sigmoid激活函数B、使用tanh激活函数C、使用ReLU激活函数D、使用残差连接
4.
将Sigmoid激活函数改为ReLu,将有助于克服梯度消失问题。( )
5.
激活函数是非线性的,以下哪些激活函数是神经网络中常用的激活函数:
6.
以下哪个不可以用作神经网络中激活函数的是( )。
7.
在神经网络中,常用的激活函数有
8.
Sigmoid激活函数在神经网络中引入了非线性。
9.
神经网络在学习时是以损失函数的梯度信息为线索来找最优参数。( )
10.
人工神经网络常见的激活函数形式有哪几种?BP网络中采用的激活函数是那种形式?
热门标签
医疗考试题库
协警考试题库
教师招聘考试题库
智能题库
注册税务师题库
事业编题库及答案
公共基础知识常识题库及答案
模拟考试题库
会计考试题库
法律常识题库
国家公务员常识题库
辅警公共基础知识题库
题库国考
面试的题库
事业编制考试真题库
粉笔行测题库
社区工作者考试题库
管理知识题库
证券市场基本法律法规题库
公文写作题库