0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

PyTorch中激活函数的全面概览

新机器视觉 来源:新机器视觉 2024-04-30 09:26 次阅读

为了更清晰地学习Pytorch中的激活函数,并对比它们之间的不同,这里对最新版本的Pytorch中的激活函数进行了汇总,主要介绍激活函数的公式、图像以及使用方法,具体细节可查看官方文档。

1、ELU

公式:

99f3d2c6-063c-11ef-a297-92fbcf53809c.png

图像:

99fd92e8-063c-11ef-a297-92fbcf53809c.png

示例:

9a09bc58-063c-11ef-a297-92fbcf53809c.png

2、Hardshrink

公式:

9a0d8e14-063c-11ef-a297-92fbcf53809c.png

图像:

9a1adc5e-063c-11ef-a297-92fbcf53809c.png

示例:

9a256520-063c-11ef-a297-92fbcf53809c.png

3、Hardsigmoid

公式:

9a2c35bc-063c-11ef-a297-92fbcf53809c.png

图像:

9a300804-063c-11ef-a297-92fbcf53809c.png

示例:

9a3d2eda-063c-11ef-a297-92fbcf53809c.png

4、Hardtanh

公式:

9a47b2ce-063c-11ef-a297-92fbcf53809c.png

图像:

9a52d0fa-063c-11ef-a297-92fbcf53809c.png

示例:

9a5aaf28-063c-11ef-a297-92fbcf53809c.png

5、Hardswish

公式:

9a61970c-063c-11ef-a297-92fbcf53809c.png

图像:

9a697d82-063c-11ef-a297-92fbcf53809c.png

示例:

9ab8be9c-063c-11ef-a297-92fbcf53809c.png

6、LeakyReLU

公式:

9ac00fd0-063c-11ef-a297-92fbcf53809c.png

图像:

9ac6b312-063c-11ef-a297-92fbcf53809c.png

示例:

9ad15c04-063c-11ef-a297-92fbcf53809c.png

7、LogSigmoid

公式:

9ad4fc92-063c-11ef-a297-92fbcf53809c.png

图像:

9ada80c2-063c-11ef-a297-92fbcf53809c.png

示例;

9ae1d9e4-063c-11ef-a297-92fbcf53809c.png

8、PReLU

公式:

9ae56e60-063c-11ef-a297-92fbcf53809c.png

其中,a是可学习的参数

图像:

9aedb9f8-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.PReLU()

9、ReLU

公式:

9af7ac06-063c-11ef-a297-92fbcf53809c.png

图像:

9afe6668-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.ReLU()

10、ReLU6

公式:

9b0258e0-063c-11ef-a297-92fbcf53809c.png

图像:

9b06107a-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.ReLU6()

11、RReLU

公式:

9b0b45f4-063c-11ef-a297-92fbcf53809c.png

其中,a从均匀分布U(lower,upper)随机采样得到。

图像:

9b12ee58-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.RReLU(0.1, 0.3)

12、SELU

公式:

9b1b5ce6-063c-11ef-a297-92fbcf53809c.png

其中,a=1.6732632423543772848170429916717,scale=1.0507009873554804934193349852946。

图像:

9b233a42-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.SELU()

13、CELU

公式:

9b2c92ea-063c-11ef-a297-92fbcf53809c.png

图像:

9b337ff6-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.CELU()

14、GELU

公式:

9b3fd0c6-063c-11ef-a297-92fbcf53809c.png

图像:

9b4984b8-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.GELU()

15、Sigmoid

公式:

9b4d35ea-063c-11ef-a297-92fbcf53809c.png

图像:

9b50fb3a-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn. Sigmoid()

16、SiLU

公式:

9b56ebd0-063c-11ef-a297-92fbcf53809c.png

图像:

9b5c0836-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.SiLU()

17、Mish

公式:

9b5f8fe2-063c-11ef-a297-92fbcf53809c.png

图像:

9b6a56ca-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Mish()

18、Softplus

公式:

9b7824d0-063c-11ef-a297-92fbcf53809c.png

对于数值稳定性,当9b7fa9b2-063c-11ef-a297-92fbcf53809c.png时,恢复到线性函数。

图像:

9b865852-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Softplus()

19、Softshrink

公式:

9b906cca-063c-11ef-a297-92fbcf53809c.png

图像:

9b96ad2e-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Softshrink()

20、Softsign

公式:

9b9ef812-063c-11ef-a297-92fbcf53809c.png

图像:

9ba45866-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Softsign()

21、Tanh

公式:

9bad9bce-063c-11ef-a297-92fbcf53809c.png

图像:

9bb53b36-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Tanh()

22、Tanhshrink

公式:

9bc0bfb0-063c-11ef-a297-92fbcf53809c.png

图像:

9bc7eb46-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Tanhshrink()

23、Threshold

公式:

9bd43a18-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Threshold(0.1, 20)

24、GLU

公式:

9bd7d420-063c-11ef-a297-92fbcf53809c.png

其中,a是输入矩阵的前半部分,b是后半部分。

示例:

m = nn.GLU()

25、Softmin

公式:

9bdb6036-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Softmin(dim=1)

26、Softmax

公式:

9be16e72-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.Softmax(dim=1)

27、LogSoftmax

公式:

9beba9a0-063c-11ef-a297-92fbcf53809c.png

示例:

m = nn.LogSoftmiax(dim=1)

28、其它

还有MultiheadAttention、Softmax2d、AdaptiveLogSoftmaxWithLoss相对复杂一些没有添加,可去官网文档查看.

审核编辑:黄飞

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表德赢Vwin官网 网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 函数
    +关注

    关注

    3

    文章

    4220

    浏览量

    61876
  • pytorch
    +关注

    关注

    2

    文章

    793

    浏览量

    12964

原文标题:Pytorch激活函数最全汇总

文章出处:【微信号:vision263com,微信公众号:新机器视觉】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    Stm32寄存器与库函数概览

    Stm32寄存器与库 函数 概览(摘自固件库使用手册)
    发表于01-26 11:04

    基于神经网络的激活函数和相应的数学介绍

    希望你理解了 激活 函数背后的思想,为什么要使用 激活 函数,以及如何选用 激活 函数
    的头像 发表于01-10 11:53 6237次阅读
    基于神经网络的<b class='flag-5'>激活</b><b class='flag-5'>函数</b>和相应的数学介绍

    激活函数sigmoid、ReLU等函数的一些性质

    非线性:当 激活 函数是线性的时候,一个两层的神经网络就可以基本逼近所有的 函数,但是,如果 激活 函数是恒等 激活
    的头像 发表于08-02 14:52 1.1w次阅读
    <b class='flag-5'>激活</b><b class='flag-5'>函数</b><b class='flag-5'>中</b>sigmoid、ReLU等<b class='flag-5'>函数</b>的一些性质

    图文详解:神经网络的激活函数

    什么是神经网络 激活 函数激活 函数有助于决定我们是否需要 激活神经元。如果我们需要发射一个神经元那么信号的强度是多少。
    的头像 发表于07-05 11:21 3639次阅读
    图文详解:神经网络的<b class='flag-5'>激活</b><b class='flag-5'>函数</b>

    详解十种激活函数的优缺点

    激活 函数(Activation Function)是一种添加到人工神经网络 函数,旨在帮助网络学习数据 的复杂模式。类似于人类大脑中基于神
    的头像 发表于03-05 16:15 1.3w次阅读
    详解十种<b class='flag-5'>激活</b><b class='flag-5'>函数</b>的优缺点

    关于深度学习最常用的10大激活函数详解

    那就让我们来整理一下深度学习 离不开的 激活 函数
    的头像 发表于03-12 17:45 3109次阅读
    关于深度学习最常用的10大<b class='flag-5'>激活</b><b class='flag-5'>函数</b>详解

    PyTorch已为我们实现了大多数常用的非线性激活函数

    PyTorch已为我们实现了大多数常用的非线性 激活 函数,我们可以像使用任何其他的层那样使用它们。让我们快速看一个在 PyTorch中使用ReLU 激活
    的头像 发表于07-06 14:47 853次阅读

    PyTorch中使用ReLU激活函数的例子

    PyTorch已为我们实现了大多数常用的非线性 激活 函数,我们可以像使用任何其他的层那样使用它们。让我们快速看一个在 PyTorch中使用ReLU 激活
    的头像 发表于07-06 15:27 2373次阅读

    PyTorchnn.Conv2d与nn.ConvTranspose2d函数的用法

    PyTorch nn.Conv2d与nn.ConvTranspose2d 函数的用法
    的头像 发表于01-11 16:43 3808次阅读
    <b class='flag-5'>PyTorch</b><b class='flag-5'>中</b>nn.Conv2d与nn.ConvTranspose2d<b class='flag-5'>函数</b>的用法

    解析激活函数作用

    激活 函数是用来加入非线性因素的,解决线性模型所不能解决的问题。 下面我分别从这个方面通过例子给出自己的理解~
    的头像 发表于02-17 15:46 902次阅读
    解析<b class='flag-5'>激活</b><b class='flag-5'>函数</b>作用

    PyTorch教程23.7之效用函数和类

    德赢Vwin官网 网站提供《 PyTorch教程23.7之效用 函数和类.pdf》资料免费下载
    发表于06-06 09:19 0次下载
    <b class='flag-5'>PyTorch</b>教程23.7之效用<b class='flag-5'>函数</b>和类

    神经网络激活函数有哪些

    在神经网络 激活 函数是一个至关重要的组成部分,它决定了神经元对于输入信号的反应方式,为神经网络引入了非线性因素,使得网络能够学习和处理复杂的模式。本文将详细介绍神经网络中常用的 激活
    的头像 发表于07-01 11:52 345次阅读

    神经网络激活函数的定义及类型

    引言 神经网络是一种模拟人脑神经元结构的计算模型,广泛应用于图像识别、自然语言处理、语音识别等领域。在神经网络 激活 函数起着至关重要的作用,它决定了神经元的输出值,进而影响整个网络的性能。本文将
    的头像 发表于07-02 10:09 269次阅读

    卷积神经网络激活函数的作用

    卷积神经网络(Convolutional Neural Networks, CNNs)是深度学习中一种重要的神经网络结构,广泛应用于图像识别、语音识别、自然语言处理等领域。在卷积神经网络 激活 函数
    的头像 发表于07-03 09:18 237次阅读

    BP神经网络激活函数怎么选择

    激活 函数起着至关重要的作用,它决定了神经元的输出方式,进而影响整个网络的性能。 一、 激活 函数的作用
    的头像 发表于07-03 10:02 266次阅读