0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心
发布

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

幻方量化发布了国内首个开源MoE大模型—DeepSeekMoE

OSC开源社区 来源:OSC开源社区 2024-01-23 11:28 次阅读

幻方量化旗下组织深度求索发布了国内首个开源 MoE 大模型 ——DeepSeekMoE,全新架构,免费商用。

今年 4 月,幻方量化发布公告称,公司将集中资源和力量,全力投身到服务于全人类共同利益的人工智能技术之中,成立新的独立研究组织,探索 AGI 的本质。幻方将这个新组织命名为 “深度求索 (DeepSeek)”。

DeepSeekMoE 的模型、代码、论文均已同步发布。

模型下载:https://huggingface.co/deepseek-ai

微调代码:https://github.com/deepseek-ai/DeepSeek-MoE

技术报告:https://github.com/deepseek-ai/DeepSeek-MoE/blob/main/DeepSeekMoE.pdf

据介绍,DeepSeekMoE 的多尺度(2B->16B->145B)模型效果均领先:

DeepSeekMoE-2B 可接近 MoE 模型的理论上限2B Dense 模型性能(即相同 Attention/FFN参数配比的 2B Dense 模型),仅用了 17.5% 计算量

DeepSeekMoE-16B 性能比肩 LLaMA2 7B 的同时,仅用了 40% 计算量,也是本次主力开源模型,40G 显存可单卡部署

DeepSeekMoE-145B 上的早期实验进一步证明该 MoE 架构明显领先于 Google 的 MoE 架构 GShard,仅用 28.5%(甚至 18.2%)计算量即可匹配 67B Dense 模型的性能

c8cd958e-b13a-11ee-8b88-92fbcf53809c.pngc8e00fca-b13a-11ee-8b88-92fbcf53809c.png

混合专家模型 (Mixed Expert Models,简称 MoEs)是用于提高大语言模型效率和准确度的技术。这种方法的核心是将复杂任务划分为更小、更易管理的子任务,每个子任务由专门的小型模型或 “专家” 负责,然后根据输入数据的特性选择性地激活这些 “专家”。 MoE 核心组成:

专家 (Experts):训练有素的小型神经网络,擅长特定领域。每个专家通常专注于处理一种特定类型的数据或任务。专家的设计可以是多种形式,如完全连接的网络、卷积网络等。

门控机制 (Gating Mechanism):MoE 架构决策者,这是一个智能路由系统,负责决定哪些专家应该被激活来处理当前的输入数据。门控机制基于输入数据的特性,动态地将数据分配给不同的专家。

官方称 DeepSeekMoE 是自研的全新 MoE 框架,主要包含两大创新:

细粒度专家划分:不同于传统 MoE 直接从与标准 FFN 大小相同的 N 个专家里选择激活 K 个专家(如 Mistral 7B8 采取 8 个专家选 2 专家),DeepSeekMoE把 N 个专家粒度划分更细,在保证激活参数量不变的情况下,从 mN 个专家中选择激活 mK 个专家(如 DeepSeekMoE 16B 采取 64 个专家选 8 个专家),如此可以更加灵活地组合多个专家

共享专家分离:DeepSeekMoE 把激活专家区分为共享专家(Shared Expert)和独立路由专家(Routed Expert),此举有利于将共享和通用的知识压缩进公共参数,减少独立路由专家参数之间的知识冗余

c907f634-b13a-11ee-8b88-92fbcf53809c.png






审核编辑:刘清

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表德赢Vwin官网 网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 神经网络
    +关注

    关注

    42

    文章

    4716

    浏览量

    99747
  • 智能路由
    +关注

    关注

    0

    文章

    9

    浏览量

    7125
  • 卷积网络
    +关注

    关注

    0

    文章

    42

    浏览量

    2141

原文标题:幻方量化开源国内首个MoE大模型,全新架构、免费商用

文章出处:【微信号:OSC开源社区,微信公众号:OSC开源社区】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    全球首个芯片设计开源模型SemiKong正式发布

    在科技日新月异的今天,全球 首个芯片设计 开源模型SemiKong的正式 发布,无疑为半导体行业投下了一枚震撼弹,预示着一场深刻的行业变革即将拉开序幕。这款由Aitomatic与FPT S
    的头像 发表于07-14 10:01 554次阅读

    “燃鸿”重磅发布国内首个燃气行业开源鸿蒙化智能产品及解决方案

    “鸿蒙赋能智创未来”为主题的燃气行业燃鸿技术推介与产品 发布会在四川成都成功举办。会上,三 联合 发布 “燃鸿”,这是 国内
    的头像 发表于06-28 08:33 421次阅读
    “燃鸿”重磅<b class='flag-5'>发布</b>!<b class='flag-5'>国内</b><b class='flag-5'>首个</b>燃气行业<b class='flag-5'>开源</b>鸿蒙化智能产品及解决方案

    昆仑万维开源2千亿稀疏大模型Skywork-MoE

    近日,昆仑万维公司宣布 开源一款名为Skywork- MoE的稀疏大 模型,该 模型拥有高达2千亿参数,不仅性能强劲,而且推理成本更低,为人工智能领域带来了新的突破。
    的头像 发表于06-04 14:44 452次阅读

    浪潮信息发布“源2.0-M32”开源模型

    浪潮信息近日推出了革命性的“源2.0-M32” 开源模型。该 模型在源2.0系列基础上,引入了“基于注意力机制的门控网络”技术,构建了一个包含32个专家的混合专家 模型
    的头像 发表于05-29 09:08 475次阅读

    小鹏汽车发布端到端大模型

    小鹏汽车近日宣布,其成功研发并 发布 国内 首个量产上车”的端到端大 模型,该 模型可直接通过传感器输
    的头像 发表于05-21 15:09 526次阅读

    通义千问开源千亿级参数模型

    通义千问近日 开源 首个千亿级参数 模型Qwen1.5-110B,这是其全系列中 首个达到千亿级别的 开源
    的头像 发表于05-08 11:01 552次阅读

    通义千问推出1100亿参数开源模型

    通义千问近日震撼 发布1100亿参数的 开源 模型Qwen1.5-110B,这一举措标志着通义千问在AI领域迈出了重大步伐。该 模型成为通义千问全系列 首个
    的头像 发表于05-06 10:49 421次阅读

    思必驰参编,国内第一个“汽车大模型标准”正式发布

    4月28日,中国信通院 发布 由思必驰等多家单位共同编制的 国内 首个“汽车大 模型标准”,该标准聚焦汽车行业高质量发展,受到央视报道。
    的头像 发表于04-30 14:49 2062次阅读
    思必驰参编,<b class='flag-5'>国内</b>第一个“汽车大<b class='flag-5'>模型</b>标准”正式<b class='flag-5'>发布</b>

    昆仑万维发布新版MoE大语言模型天工2.0

    昆仑万维科技今日震撼 发布全新升级的「天工2.0」 MoE大语言 模型以及配套的新版「天工AI智能助手」APP。此次更新标志着 国内 首个搭载
    的头像 发表于02-06 16:19 1094次阅读

    万兴科技发布国内首个音视频多媒体大模型“天幕”

    万兴科技近日正式 发布 国内 首个音视频多媒体大 模型——万兴“天幕”,并宣布大 模型研发中心将正式落户
    的头像 发表于02-04 11:42 1070次阅读

    对标OpenAI GPT-4,MiniMax国内首个MoE大语言模型全量上线

    MoE架构全称专家混合(Mixture-of-Experts),是一种集成方法,其中整个问题被分为多个子任务,并将针对每个子任务训练一组专家。 MoE 模型将覆盖不同学习者(专家)的不同输入数据。
    的头像 发表于01-16 15:34 672次阅读
    对标OpenAI GPT-4,MiniMax<b class='flag-5'>国内</b><b class='flag-5'>首个</b><b class='flag-5'>MoE</b>大语言<b class='flag-5'>模型</b>全量上线

    声智科技联合中国信通院正式发布国内首个金融行业大模型标准

    金融大 模型最新消息! 9月,2023可信AI大会暨南京人工智能产业发展大会成功召开,声智科技联合中国信通院正式 发布 国内 首个金融行业大 模型标准
    的头像 发表于09-22 09:58 619次阅读

    可以使用已有的量化表作为输入来完成BModel模型量化吗?

    可以使用已有的 量化表(比如 TensorRT 量化后得到的 量化表)作为输入 来完成BModel 模型量化吗?
    发表于09-19 06:04

    为什么量化caffe模型完,模型的input_shape被output_shape替换了?

    使用model_transform.py和model_deploy把caffe 模型bf16 量化成cvimodel,原 模型的输入shape是3*112*112,输出是2*1*1, 量化完测
    发表于09-18 07:19

    阿里平头哥发布首个RISC-V AI 软硬全栈平台

    HHB 实现 在典型网络性能比第三 工具平均提升 88%,并增加支持运行 Transformer、TensorFlow、PyTorch 等 170 余个主流框架 AI 模型。 基于此,平头哥
    发表于08-26 14:14