1 神经网络中的激活函数有哪些-德赢Vwin官网 网
0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

神经网络中的激活函数有哪些

CHANBAEK 来源:网络整理 2024-07-01 11:52 次阅读

一、引言

神经网络中,激活函数是一个至关重要的组成部分,它决定了神经元对于输入信号的反应方式,为神经网络引入了非线性因素,使得网络能够学习和处理复杂的模式。本文将详细介绍神经网络中常用的激活函数,包括其定义、特点、数学形式以及在神经网络中的作用和用途。

二、常用的激活函数

Sigmoid函数

Sigmoid函数是一种常用的S型激活函数,它将输入的实数映射到(0,1)之间。数学形式为:f(x) = 1 / (1 + e^(-x))。

优点:输出范围在(0,1)之间,可以表示概率;具有平滑的S形曲线,可以保持梯度的连续性,有利于反向传播算法的稳定性。

缺点:当输入较大或较小时,梯度会接近于零,导致梯度消失问题;输出不是以零为中心,可能导致梯度更新不均匀,影响训练速度。

Tanh函数(双曲正切函数)

Tanh函数也是一种S型激活函数,将输入的实数映射到(-1,1)之间。数学形式为:f(x) = (ex - e(-x)) / (ex + e(-x))。

优点:输出范围在(-1,1)之间,相比Sigmoid函数更广泛,可以提供更大的梯度,有利于神经网络的学习;是Sigmoid函数的平移和缩放版本,具有相似的S形曲线,但输出以零为中心,有助于减少梯度更新不均匀的问题。

缺点:在极端输入值时,梯度仍然会变得非常小,导致梯度消失的问题。

ReLU函数(Rectified Linear Unit,修正线性单元)

ReLU函数是一种简单而有效的激活函数,它将输入的实数映射到大于等于零的范围。数学形式为:f(x) = max(0, x)。

优点:在实践中,ReLU函数比Sigmoid和Tanh函数更快地收敛;当输入为正时,ReLU函数的梯度为常数,避免了梯度消失的问题;计算简单,只需比较输入和零的大小即可,运算速度快。

缺点:当输入为负时,ReLU函数的梯度为0,这被称为“神经元死亡”现象,可能导致一些神经元永远不会被激活,影响模型的表达能力;ReLU函数输出不包括负值,这可能会导致一些神经元的输出偏向于0。

Leaky ReLU函数

Leaky ReLU函数是对ReLU函数的改进,它解决了ReLU函数在负数部分输出为零的问题。数学形式为:f(x) = max(αx, x),其中α是一个小的正数(如0.01)。

优点:Leaky ReLU函数解决了ReLU函数的“死亡”现象,使得神经元可以在输入为负时被激活;保留了ReLU函数的快速计算速度。

缺点:需要额外的超参数α,这增加了模型的复杂性;当α设置不当时,Leaky ReLU函数可能会导致神经元输出过大或过小,影响模型的表达能力。

ELU函数(Exponential Linear Unit,指数线性单元)

ELU函数也是ReLU函数的一种改进形式,它在负数部分采用指数函数来避免“死亡”现象。数学形式为:f(x) = x(如果x > 0),α(e^x - 1)(如果x ≤ 0),其中α是一个超参数。

优点:解决了ReLU函数的“死亡”现象;当输入为负时,ELU函数具有负饱和度,这有助于提高模型的鲁棒性;ELU函数的输出可以被归一化,这有助于模型的训练。

缺点:需要计算指数函数,这可能会增加模型的计算复杂度;当输入为正时,ELU函数的梯度仍然可能变得非常小,导致梯度消失的问题。

Softmax函数

Softmax函数通常用于多分类问题的输出层,它将神经网络的原始输出转换为概率分布。数学形式为:f(x)_i = e^(x_i) / Σ_j e^(x_j),其中x_i表示第i个神经元的输出,Σ_j e^(x_j)表示所有神经元输出的指数和。

优点:可以将输出映射到概率空间,适用于分类问题;在多分类问题中表现良好。

缺点:可能会导致梯度消失或梯度爆炸的问题;计算复杂度较高,特别是在输出维度较大时。

三、总结

激活函数在神经网络中扮演着重要的角色,它们为神经网络引入了非线性因素,使得网络能够学习和处理复杂的模式。不同的激活函数具有不同的特点和优缺点,适用于不同的任务和数据集。在选择激活函数时,需要根据具体的应用场景和需求进行权衡和选择。同时,随着深度学习技术的不断发展,新的激活函数也不断被提出和应用,为神经网络的优化和改进提供了新的思路和方法

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表德赢Vwin官网 网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4771

    浏览量

    100704
  • 函数
    +关注

    关注

    3

    文章

    4327

    浏览量

    62567
  • 神经元
    +关注

    关注

    1

    文章

    363

    浏览量

    18449
收藏 人收藏

    评论

    相关推荐

    神经网络基本的训练和工作原理是什么

    在两层神经网络之间,必须有激活函数连接,从而加入非线性因素,提高神经网络的能力。所以,我们先从激活函数
    发表于 08-07 10:02 686次阅读
    <b class='flag-5'>神经网络</b>基本的训练和工作原理是什么

    【PYNQ-Z2试用体验】神经网络基础知识

    思考问题的过程。人脑输入一个问题,进行思考,然后给出答案。神经网络就是在模拟人的思考这一过程。而我们要做的就是以数学的方式,将这一抽象的过程进行量化。神经元与激活函数人的大脑
    发表于 03-03 22:10

    【案例分享】ART神经网络与SOM神经网络

    是一种常用的无监督学习策略,在使用改策略时,网络的输出神经元相互竞争,每一时刻只有一个竞争获胜的神经激活。ART神经网络由比较层、识别层、
    发表于 07-21 04:30

    神经网络移植到STM32的方法

    神经网络移植到STM32最近在做的一个项目需要用到网络进行拟合,并且将拟合得到的结果用作控制,就在想能不能直接在单片机上做神经网络计算,这样就可以实时计算,不依赖于上位机。所以要解决的主要是两个
    发表于 01-11 06:20

    ReLU到Sinc的26种神经网络激活函数可视化大盘点

    本文介绍了26个激活函数的图示及其一阶导数,在神经网络激活函数决定来自给定输入集的节点的输出
    发表于 01-11 17:42 3.1w次阅读
    ReLU到Sinc的26种<b class='flag-5'>神经网络</b><b class='flag-5'>激活</b><b class='flag-5'>函数</b>可视化大盘点

    激活函数sigmoid、ReLU等函数的一些性质

    非线性:当激活函数是线性的时候,一个两层的神经网络就可以基本逼近所有的函数,但是,如果激活函数
    的头像 发表于 08-02 14:52 1.1w次阅读
    <b class='flag-5'>激活</b><b class='flag-5'>函数</b><b class='flag-5'>中</b>sigmoid、ReLU等<b class='flag-5'>函数</b>的一些性质

    图文详解:神经网络激活函数

    什么是神经网络激活函数激活函数有助于决定我们是否需要激活
    的头像 发表于 07-05 11:21 3772次阅读
    图文详解:<b class='flag-5'>神经网络</b>的<b class='flag-5'>激活</b><b class='flag-5'>函数</b>

    神经网络初学者的激活函数指南

    作者:Mouâad B. 来源:DeepHub IMBA 如果你刚刚开始学习神经网络激活函数的原理一开始可能很难理解。但是如果你想开发强大的神经网络,理解它们是很重要的。 但在我们深
    的头像 发表于 04-18 11:20 554次阅读
    <b class='flag-5'>神经网络</b>初学者的<b class='flag-5'>激活</b><b class='flag-5'>函数</b>指南

    神经网络初学者的激活函数指南

    作者:MouâadB.来源:DeepHubIMBA如果你刚刚开始学习神经网络激活函数的原理一开始可能很难理解。但是如果你想开发强大的神经网络,理解它们是很重要的。但在我们深入研究
    的头像 发表于 04-21 09:28 701次阅读
    <b class='flag-5'>神经网络</b>初学者的<b class='flag-5'>激活</b><b class='flag-5'>函数</b>指南

    神经网络激活函数的定义及类型

    引言 神经网络是一种模拟人脑神经元结构的计算模型,广泛应用于图像识别、自然语言处理、语音识别等领域。在神经网络激活
    的头像 发表于 07-02 10:09 514次阅读

    卷积神经网络激活函数的作用

    卷积神经网络(Convolutional Neural Networks, CNNs)是深度学习中一种重要的神经网络结构,广泛应用于图像识别、语音识别、自然语言处理等领域。在卷积神经网络
    的头像 发表于 07-03 09:18 861次阅读

    神经网络算法的结构哪些类型

    : 多层感知器(MLP) 多层感知器是最基本和最简单的神经网络结构,它由输入层、隐藏层和输出层组成。每个神经元都通过权重和偏置与前一层的神经元相连,并使用激活
    的头像 发表于 07-03 09:50 431次阅读

    BP神经网络激活函数怎么选择

    激活函数起着至关重要的作用,它决定了神经元的输出方式,进而影响整个网络的性能。 一、激活
    的头像 发表于 07-03 10:02 671次阅读

    bp神经网络和卷积神经网络区别是什么

    结构、原理、应用场景等方面都存在一定的差异。以下是对这两种神经网络的比较: 基本结构 BP神经网络是一种多层前馈神经网络,由输入层、隐藏层和输出层组成。每个神经元之间通过权重连接,并通
    的头像 发表于 07-03 10:12 1150次阅读

    前馈神经网络的基本结构和常见激活函数

    激活函数的非线性变换,能够学习和模拟复杂的函数映射,从而解决各种监督学习任务。本文将详细阐述前馈神经网络的基本结构,包括其组成层、权重和偏置、激活
    的头像 发表于 07-09 10:31 765次阅读