Softmax多分类(机器学习)
之前的逻辑回归只能进行二分类。
我们现在使用Softmax进行多分类。
假如我们有的y有4个可选结果(如优秀、良好、及格、不及格)。
x是我们的输入
上面的z是通过输入,计算出的在这4个维度上的“中间值”。
经过这样处理,可以得到预测值为各数的概率。
推广:
接下来定义损失函数:
然后看一下Softmax在神经网络中的应用:
此时我们最后一层有10个神经元,那么输出向量也是10维的。
那么我们也应该有:
以此类推。
原文地址:https://blog.csdn.net/2303_77275067/article/details/140567654
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!