1 深度学习的19种损失函数你了解吗?带你详细了解-德赢Vwin官网 网
0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

深度学习的19种损失函数你了解吗?带你详细了解

Dbwd_Imgtec 来源:未知 作者:CSDN mingo_敏 2019-09-14 10:34 次阅读

损失函数通过torch.nn包实现

基本用法

criterion = LossCriterion() #构造函数有自己的参数loss = criterion(x, y) #调用标准时也有参数19种损失函数

1. L1范数损失 L1Loss

计算 output 和 target 之差的绝对值。

torch.nn.L1Loss(reduction='mean')参数:

reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。默认:mean。

2.均方误差损失 MSELoss

计算 output 和 target 之差的均方差。

torch.nn.MSELoss(reduction='mean')参数:

reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。默认:mean。

3. 交叉熵损失 CrossEntropyLoss

当训练有 C 个类别的分类问题时很有效. 可选参数 weight 必须是一个1维 Tensor, 权重将被分配给各个类别. 对于不平衡的训练集非常有效。

在多分类任务中,经常采用 softmax 激活函数+交叉熵损失函数,因为交叉熵描述了两个概率分布的差异,然而神经网络输出的是向量,并不是概率分布的形式。所以需要 softmax激活函数将一个向量进行“归一化”成概率分布的形式,再采用交叉熵损失函数计算 loss。

torch.nn.CrossEntropyLoss(weight=None,ignore_index=-100, reduction='mean')参数:

weight (Tensor, optional) – 自定义的每个类别的权重. 必须是一个长度为 C 的 Tensor ignore_index (int, optional) – 设置一个目标值, 该目标值会被忽略, 从而不会影响到 输入的梯度。 reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。默认:mean。

4. KL 散度损失 KLDivLoss

计算 input 和 target 之间的 KL 散度。KL 散度可用于衡量不同的连续分布之间的距离, 在连续的输出分布的空间上(离散采样)上进行直接回归时 很有效.

torch.nn.KLDivLoss(reduction='mean')参数:

reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。默认:mean。

5. 二进制交叉熵损失 BCELoss二分类任务时的交叉熵计算函数。用于测量重构的误差, 例如自动编码机. 注意目标的值 t[i] 的范围为0到1之间.

torch.nn.BCELoss(weight=None, reduction='mean')参数:

weight (Tensor, optional) – 自定义的每个 batch 元素的 loss 的权重. 必须是一个长度为 “nbatch” 的 的 Tensor

6. BCEWithLogitsLoss

BCEWithLogitsLoss损失函数把 Sigmoid 层集成到了 BCELoss 类中。该版比用一个简单的 Sigmoid 层和 BCELoss 在数值上更稳定,因为把这两个操作合并为一个层之后, 可以利用 log-sum-exp 的 技巧来实现数值稳定。

torch.nn.BCEWithLogitsLoss(weight=None, reduction='mean', pos_weight=None)参数:

weight (Tensor, optional) – 自定义的每个 batch 元素的 loss 的权重. 必须是一个长度 为 “nbatch” 的 Tensor

7. MarginRankingLoss

torch.nn.MarginRankingLoss(margin=0.0,reduction='mean')对于 mini-batch(小批量) 中每个实例的损失函数如下:

参数:

margin:默认值0

8. HingeEmbeddingLoss

torch.nn.HingeEmbeddingLoss(margin=1.0, reduction='mean')对于 mini-batch(小批量) 中每个实例的损失函数如下:


参数:

margin:默认值1

9. 多标签分类损失 MultiLabelMarginLoss

torch.nn.MultiLabelMarginLoss(reduction='mean')对于mini-batch(小批量) 中的每个样本按如下公式计算损失:

10 平滑版L1损失 SmoothL1Loss

也被称为 Huber 损失函数。

torch.nn.SmoothL1Loss(reduction='mean')


其中

11. 2分类的logistic损失 SoftMarginLoss

torch.nn.SoftMarginLoss(reduction='mean')

12. 多标签 one-versus-all 损失 MultiLabelSoftMarginLoss

torch.nn.MultiLabelSoftMarginLoss(weight=None, reduction='mean')

13. cosine 损失 CosineEmbeddingLoss

torch.nn.CosineEmbeddingLoss(margin=0.0, reduction='mean')


参数:

margin:默认值0

14. 多类别分类的hinge损失 MultiMarginLoss

torch.nn.MultiMarginLoss(p=1, margin=1.0, weight=None, reduction='mean')


参数:

p=1或者2 默认值:1
margin:默认值1

15. 三元组损失 TripletMarginLoss

和孪生网络相似,具体例子:给一个A,然后再给B、C,看看B、C谁和A更像。

torch.nn.TripletMarginLoss(margin=1.0, p=2.0, eps=1e-06, swap=False, reduction='mean')
其中:

16. 连接时序分类损失 CTCLoss

CTC连接时序分类损失,可以对没有对齐的数据进行自动对齐,主要用在没有事先对齐的序列化数据训练上。比如语音识别、ocr识别等等。

torch.nn.CTCLoss(blank=0, reduction='mean')参数:

reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。默认:mean。

17. 负对数似然损失 NLLLoss负对数似然损失. 用于训练 C 个类别的分类问题.

torch.nn.NLLLoss(weight=None, ignore_index=-100, reduction='mean')参数:

weight (Tensor, optional) – 自定义的每个类别的权重. 必须是一个长度为 C 的 Tensor ignore_index (int, optional) – 设置一个目标值, 该目标值会被忽略, 从而不会影响到 输入的梯度.

18.NLLLoss2d

对于图片输入的负对数似然损失. 它计算每个像素的负对数似然损失.

torch.nn.NLLLoss2d(weight=None, ignore_index=-100, reduction='mean')参数:

weight (Tensor, optional) – 自定义的每个类别的权重. 必须是一个长度为 C 的 Tensor reduction-三个值,none: 不使用约简;mean:返回loss和的平均值;sum:返回loss的和。默认:mean。

19. PoissonNLLLoss目标值为泊松分布的负对数似然损失

torch.nn.PoissonNLLLoss(log_input=True, full=False, eps=1e-08, reduction='mean')参数:

log_input (bool, optional) – 如果设置为 True , loss 将会按照公 式 exp(input) - target * input 来计算, 如果设置为 False , loss 将会按照 input - target * log(input+eps) 计算. full (bool, optional) – 是否计算全部的 loss, i. e. 加上 Stirling 近似项 target * log(target) - target + 0.5 * log(2 * pi * target). eps (float, optional) – 默认值: 1e-8

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表德赢Vwin官网 网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 函数
    +关注

    关注

    3

    文章

    4327

    浏览量

    62569
  • 深度学习
    +关注

    关注

    73

    文章

    5500

    浏览量

    121111

原文标题:深度学习19种损失函数,你认识几个?

文章出处:【微信号:Imgtec,微信公众号:Imagination Tech】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    详细了解回调函数

    下面我们先介绍预备知识 typedef的用法和函数指针的学习
    发表于 08-06 08:01

    详细了解下ups的相关计算

    关于ups方面的计算有很多,ups无论是接空开,还是连接电缆,以及选择电池,都可能需要计算它的电流或功率等,那么今天我们来详细了解下ups的相关计算。一、UPS电源及电流一、高频ups与工频ups
    发表于 11-16 09:08

    详细了解一下STM32F1的具体电路参数

    最近笔者在使用STM32时,需要详细了解一下F1的具体电路参数。于是查看其官方数据手册,结果记录如下。绝对最大额度值一般工作条件表中的FT指5V 耐压。可以在引脚定义表格中看到。I/O端口特性(逻辑电平)在最后一个表格中还可以看到STMF103芯片内部的上/下拉电阻的阻值为40k。...
    发表于 01-18 07:07

    通过 iftop、 nethogs 和 vnstat 详细了解的网络连接状态

    通过 iftop、 nethogs 和 vnstat 详细了解的网络连接状态。
    的头像 发表于 01-27 21:10 2.1w次阅读
    通过 iftop、 nethogs 和 vnstat <b class='flag-5'>详细了解</b><b class='flag-5'>你</b>的网络连接状态

    深度学习是什么?了解深度学习难吗?让快速了解深度学习的视频讲解

    深度学习是什么?了解深度学习难吗?让快速了解
    发表于 08-23 14:36 16次下载

    快速了解神经网络与深度学习的教程资料免费下载

    本文档的详细介绍的是快速了解神经网络与深度学习的教程资料免费下载主要内容包括了:机器学习概述,线性模型,前馈神经网络,卷积神经网络,循环神经
    发表于 02-11 08:00 33次下载
    快速<b class='flag-5'>了解</b>神经网络与<b class='flag-5'>深度</b><b class='flag-5'>学习</b>的教程资料免费下载

    了解IC内部结构吗本文带你深入了解

    本文档的主要内容详细介绍的是IC内部结构 了解IC内部结构吗本文带你深入了解
    的头像 发表于 03-09 11:33 1.1w次阅读
    <b class='flag-5'>你</b><b class='flag-5'>了解</b>IC内部结构吗本文<b class='flag-5'>带你</b>深入<b class='flag-5'>了解</b>

    深度学习框架了解多少

    开源的深度学习神经网络正步入成熟,而现在有许多框架具备为个性化方案提供先进的机器学习和人工智能的能力。
    发表于 07-08 10:31 2213次阅读
    <b class='flag-5'>深度</b><b class='flag-5'>学习</b>框架<b class='flag-5'>你</b><b class='flag-5'>了解</b>多少

    机器学习深度学习中分类与回归常用的几种损失函数

    本文将介绍机器学习深度学习中分类与回归常用的几种损失函数,包括均方差损失 Mean Squar
    的头像 发表于 10-09 16:36 6230次阅读
    机器<b class='flag-5'>学习</b>和<b class='flag-5'>深度</b><b class='flag-5'>学习</b>中分类与回归常用的几种<b class='flag-5'>损失</b><b class='flag-5'>函数</b>

    带你深入了解示波器

    带你深入了解示波器
    发表于 02-07 14:26 19次下载

    一文详细了解OpenHarmony新图形框架

    3月30日,OpenHarmony v3.1 Release版本正式发布了。此版本为大家带来了全新的图形框架,实现了UI框架显示、多窗口、流畅动画等基础能力,夯实了OpenHarmony系统能力基座。下面就带大家详细了解新图形框架。
    的头像 发表于 04-27 13:21 2207次阅读
    一文<b class='flag-5'>详细了解</b>OpenHarmony新图形框架

    带您一起详细了解IEEE802.3bt(PoE++)的有关特点

    Hqst华强盛(盈盛电子)导读:带您一起详细了解IEEE802.3bt(PoE++)的有关特点,让我们对IEEE802.3bt(PoE++)协议有更具体的了解
    的头像 发表于 01-04 11:26 2157次阅读
    带您一起<b class='flag-5'>详细了解</b>IEEE802.3bt(PoE++)的有关特点

    一文带你详细了解工业电脑

    扇设计、承受振动和恶劣环境的能力、轻松配置、全面的I/O选项、延长生命周期、耐用的组件。了解如何为您的应用选择工业电脑对提高设施的生产力和效率至关重要。详细了解
    的头像 发表于 06-12 14:24 401次阅读
    一文<b class='flag-5'>带你</b><b class='flag-5'>详细了解</b>工业电脑

    语义分割25损失函数综述和展望

    本综述提供了对25用于图像分割的损失函数的全面且统一的回顾。我们提供了一新颖的分类法,并详细审查了这些
    的头像 发表于 10-22 08:04 469次阅读
    语义分割25<b class='flag-5'>种</b><b class='flag-5'>损失</b><b class='flag-5'>函数</b>综述和展望

    深度了解SiC材料的物理特性

    与Si材料相比,SiC半导体材料在物理特性上优势明显,比如击穿电场强度高、耐高温、热传导性好等,使其适合于制造高耐压、低损耗功率器件。本篇章带你详细了解SiC材料的物理特性。
    的头像 发表于 11-14 14:55 574次阅读
    <b class='flag-5'>深度了解</b>SiC材料的物理特性