1 英伟达推出GB200 NVL4平台:整合了两个GB200芯片-德赢Vwin官网 网
0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

英伟达推出GB200 NVL4平台:整合了两个GB200芯片

RISCV国际人才培养认证中心 2024-11-21 01:06 次阅读

11月19日消息,人工智能AI芯片大厂英伟达(NVIDIA)正式推出了两个全新的AI解决方案硬件平台,一个是Blackwell GB200 NVL4,一个是Hopper H200 NVL。

据介绍,英伟达GB200 NVL4是一个全新的模块,是基于原有的GB200 Grace Blackwell Superchip AI解决方案的更大扩展。GB200 NVL4模块是在更大的主板上配置两个Blackwell GB200 GPU,即拥有两个Grace CPU和4个Blackwell B200 GPU。该模块被设计为具有4-GPU NVLINK域和1.3T相干内存的单服务器解决方案。在性能方面,该模块将使vwin 性能提高2.2倍,训练和推理性能提高1.8倍。英伟达的合作伙伴将在未来几个月内提供NVL4解决方案。

c35eceb0-a761-11ef-8084-92fbcf53809c.jpg

此外,基于 PCIe 的Hopper H200 NVL已全面上市,这些卡可以通过 NVLINK 域连接多达 4 个 GPU,可提供比标准 PCIe 解决方案快7倍的带宽。英伟达表示,H200 NVL 解决方案可以适应任何数据中心,并提供一系列针对混合 HPC 和 AI 工作负载优化的灵活服务器配置。

c365b680-a761-11ef-8084-92fbcf53809c.jpg

规格方面,Hopper H200 NVL解决方案提供了1.5倍的HBM内存、1.7倍的LLM推理性能和1.3倍的HPC性能。您将获得114个SM,总共14592个CUDA内核、456个张量内核和最多3个FP8 TFLOP(FP16累积)性能。GPU具有跨5120位接口配置的80 Gb HBM2e内存,TDP为350瓦。

c36d96fc-a761-11ef-8084-92fbcf53809c.jpg

至于 TDP,由于 Superchip 模块的功率约为 2700W,预计更大的 GB200 NVL4 解决方案的功耗接近 6000W 的功率。人们可以很容易地看到英伟达 为加速 AI 计算领域所做的努力。

英伟达最近在MLPerf v4.1中发布了训练和推理方面的世界纪录,不仅最新的Blackwell平台令人惊叹,而且上一代的Hopper通过持续优化也变得越来越好。该公司还将其人工智能路线图加速到一年的节奏,并计划在未来几年推出几个新的基础设施,如Blackwell Ultra和Rubin。

编辑:芯智讯-浪客剑

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表德赢Vwin官网 网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 芯片
    +关注

    关注

    455

    文章

    50712

    浏览量

    423106
  • 人工智能
    +关注

    关注

    1791

    文章

    47183

    浏览量

    238200
  • 英伟达
    +关注

    关注

    22

    文章

    3770

    浏览量

    90978
收藏 人收藏

    评论

    相关推荐

    英伟地表最强AI芯片GB200 NVL72服务器遭抢购

    10月28日,最新媒体报道显示,配备有英伟被誉为“地表最强AI芯片”的GB200的AI服务器已开始交付,微软、Meta等行业巨头正积极扩大采购更高端的
    的头像 发表于 10-29 10:42 507次阅读

    微软Azure首获英伟GB200 AI服务器

    微软Azure在社交平台上宣布一项重要进展,公司已经成功获得了搭载英伟最新GB200超级芯片
    的头像 发表于 10-10 17:01 520次阅读

    鸿海再获AI领域大单,独家供货英伟GB200 NVLink交换器

    在人工智能(AI)领域的激烈竞争中,鸿海集团再次传来捷报。继成功获得英伟(NVIDIA)GB200 AI服务器代工订单的大份额后,鸿海又独家揽获
    的头像 发表于 06-19 15:04 975次阅读

    英伟展示最新GB200 AI服务器,鸿海助力市场供应

    6月2日晚,英伟创始人兼CEO黄仁勋在主题演讲中,隆重展示最新的GB200 NVL72人工智能(AI)服务器。这款备受瞩目的产品由全球知
    的头像 发表于 06-03 11:29 964次阅读

    今日看点丨黄仁勋展示最新GB200 AI服务器,由鸿海制造;智己刘涛:光年固态电池10月量产

    。针对GB200的供应状况,鸿海董事长刘扬伟此前表示,目前市场呈现供不应求,团队会持续布局努力,今年在AI服务器方面的营收将增长超过4成,未来发展可期。   有海外投资者此前称,在英伟
    发表于 06-03 10:46 998次阅读

    英伟Blackwell GB200 AI芯片今年预估出货50万片

    英伟正积极扩大其人工智能服务器的产能。据最新消息,Blackwell GB200人工智能服务器预计在2024年的出货量将达到50万片,到了2025年,这一数字将猛增至200万片。
    的头像 发表于 05-24 11:40 692次阅读

    消息称英伟计划将GB200提早导入面板级扇出型封装

    为解决CoWoS先进封装产能紧张的问题,英伟正计划将其GB200产品提前导入扇出面板级封装(FOPLP)技术,原计划2026年的部署现提前至2025年。
    的头像 发表于 05-22 11:40 1451次阅读

    英伟率先将GB200导入面板级扇出式封装,引领市场新机遇

    最新的外资报告印证上述信息,明确指出英伟GB200超级芯片的供应链已经启动,目前处于微调和测试阶段,商机即将到来。据预测,今年下半年Co
    的头像 发表于 05-22 10:14 830次阅读

    英伟GB200预计出货90万颗,台湾供应链将受惠

    摩根士丹利预计,今年下半年将有42万颗GB200进入市场,明年产量可能达到150万至200万颗。考虑到生产周期,预计2025年GB200超级芯片总出货量将
    的头像 发表于 05-15 17:47 1256次阅读

    进一步解读英伟 Blackwell 架构、NVlink及GB200 超级芯片

    2024年3月19日,[英伟]CEO[黄仁勋]在GTC大会上公布新一代AI芯片架构BLACKWELL,并推出基于该架构的超级
    发表于 05-13 17:16

    GB200关于PCB相关的问答

    GB200架构的推广将对PCB厂商产生积极影响。随着GB200架构增强了GPU间的连接层,导致交换机ASIC数量增加,从而推动了PCB价值量提升。
    的头像 发表于 04-28 15:22 1402次阅读
    <b class='flag-5'>GB200</b>关于PCB相关的问答

    英伟发布最强AI加速卡Blackwell GB200

    英伟在最近的GTC开发者大会上发布其最新、最强大的AI加速卡——GB200。这款加速卡采用了新一代AI图形处理器架构Blackwell,标志着
    的头像 发表于 03-20 11:38 1116次阅读

    英伟推出有2080亿晶体管的GB200处理器

    英伟在加利福尼亚州圣何塞举行的GTC大会上表示,名为GB200的使用Blackwell架构的新处理器在处理支持人工智能的模型方面可以将速度提高数倍。
    的头像 发表于 03-20 09:35 619次阅读

    今日看点丨英伟发布最强 AI 加速卡--Blackwell GB200;三星面临罢工 存储市场供需引关注

    1. 英伟发布最强 AI 加速卡--Blackwell GB200 ,今年发货   3 月 19 日,英伟发布最强 AI 加速卡--Bl
    发表于 03-19 11:08 1243次阅读

    英伟计划拉大GB200与B100/B200规格差异,以刺激用户购买GB200

    早些时候,IT之家用一张路线图展示英伟计划在2024年推出Hopper GH200 GPU,其后将依次
    的头像 发表于 03-14 16:36 2742次阅读