Logit, Logistic, Sigmoid, Softmax在MLP的区别
# Related Post
1.激活函数和损失函数
2.从LeNet到DenseNet:Transformer前卷积神经网络的一些优化技巧/结构优化
3.受AdaBoost启发的Margin Theory间隔理论
4.非线性卷积滤波
5.强化学习几个不等式推导
1.激活函数和损失函数
2.从LeNet到DenseNet:Transformer前卷积神经网络的一些优化技巧/结构优化
3.受AdaBoost启发的Margin Theory间隔理论
4.非线性卷积滤波
5.强化学习几个不等式推导