请在 下方输入 要搜索的题目:

AlexNet 这项工作的贡献有:( )。


A、使用修正的线性单元(ReLU)作为非线性激活函数
B、在训练的时候使用 Dropout 技术有选择地忽视单个神经元,以避免模型过拟合
C、覆盖进行较大池化,避免平均池化的平均化效果
D、使用 GPU NVIDIA GTX 580 减少训练时间

发布时间:2025-08-01 16:05:05
推荐参考答案 ( 由 快搜搜题库 官方老师解答 )
联系客服
答案:使用修正的线性单元(ReLU)作为非线性激活函数 ■在训练的时候使用 Dropout 技术有选择地忽视单个神经元,以避免模型过拟合 ■覆盖进行较大池化,避免平均池化的平均化效果 ■使用 GPU NVIDIA GTX 580 减少训练时间
专业技术学习
专业技术学习
搜搜题库系统