每天五分钟深度学习框架pytorch:交叉熵计算时的维度是什么?
本文重点
前面我们学习了pytorch中已经封装好的损失函数,已经封装好的损失函数有很多,但是我们并没有详细介绍,原因就是单独介绍损失函数可能难以理解,我们上一章节的目的是让大家先了解一下常见的损失函数,然后再之后的实际使用中遇到哪个损失函数,我们就使用哪个损失函数。
本文我们主要讲解交叉熵损失函数,分析一下交叉熵损失函数的维度信息,之所以单独学习交叉熵损失函数,是因为它是目前使用最多的损失函数之一。
在pytorch中交叉熵损失函数实现的两种方式
方式一:
CrossEntropyLoss
方式二:
在nn.NLLLoss前面接上一个 nn.LogSoftMax 层
以上两种方式都是实现交叉熵损失函数的两种常见的方式,当前第一种比较方便,不用对数据进行logsoftmax处理
实现
我们下面将通过一个具体的例子来分析一下交叉熵损失,并且看一下实际中是怎么使用的
nn.functional
import torch
import torch.nn.functional as
原文地址:https://blog.csdn.net/huanfeng_AI/article/details/142535751
免责声明:本站文章内容转载自网络资源,如本站内容侵犯了原著者的合法权益,可联系本站删除。更多内容请关注自学内容网(zxcms.com)!