在的基础上增加了两个残差模塊,继续测试其在Cifar10数据集上的效果
实验结果如下(为了方便观看,删除了部分等号):
到目前为止还没有过拟合的迹象。
似乎将自适應参数化ReLU激活函数中第一个全连接层的神经元个数设置为1/16是一种非常有效的避免过拟合的方法。印象中Squeeze-and-Excitation network就是这么做的。
————————————————
版权声明:本文为CSDN博主「dangqing1988」的原创文章遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明