0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

NVIDIA推出A100 80GB GPU,助力实现新一轮AI和科学技术突破

我快闭嘴 来源:通信世界网 作者:通信世界网 2020-11-17 09:59 次阅读

NVIDIA于今日发布NVIDIA A100 80GBGPU,这一创新将支持NVIDIA HGXAI超级计算平台。该GPU内存比上一代提升一倍,能够为研究人员和工程师们提供空前的速度和性能,助力实现新一轮AI和科学技术突破。

全新A100采用HBM2e技术,可将A100 40GB GPU的高带宽内存增加一倍至80GB,提供每秒超过2TB的内存带宽。这使得数据可以快速传输到全球最快的数据中心GPU A100上,使研究人员能够更快地加速其应用,处理最大规模的模型和数据集。

NVIDIA应用深度学习研究副总裁Bryan Catanzaro表示:“若想获得HPC和AI的最新研究成果,则需要构建最大的模型,而这需要比以往更大的内存容量和更高的带宽。A100 80GB GPU所提供的内存是六个月前推出的前代产品的两倍,突破了每秒2TB的限制,使研究人员可以应对全球科学及大数据方面最严峻的挑战。”

用于NVIDIA DGXTM A100和NVIDIA DGX StationTM A100系统的NVIDIA A100 80GB GPU也于今日发布,预计将于本季度发货。

领先的系统提供商源讯、戴尔科技富士通、技嘉科技、慧与、浪潮、联想、云达科技、超微预计将于2021年上半年,提供基于HGX A100集成底板的系统,该集成底板搭载4-8个A100 80GB GPU。

满足大流量数据工作负载需求

A100 80GB版本基于A100 40GB的多样化功能,成为需要大量数据存储空间的各类应用的理想选择。

DLRM等推荐系统模型为AI训练提供了涵盖数十亿用户和产品信息的海量表单。A100 80GB可实现高达3倍加速,使企业可以重新快速训练这些模型,从而提供更加精确的推荐。

HGX服务器中搭载的A100 80GB还可训练具有更多参数的最大模型,如GPT-2。GPT-2是具有超常生成文本能力的自然语言处理模型。这就消除了对数据或模型并行架构的需求,因为实现并行架构需要花费大量时间,而且跨多个节点运行缓慢。

凭借其多实例GPU(MIG)技术,A100可分割为多达7个GPU实例,每个实例具有10GB内存。该技术是一种安全的硬件隔离方法,在处理各类较小的工作负载时,可实现GPU最佳利用率。对于如RNN-T等自动语言识别模型的AI推理,单个A100 80GB MIG实例可处理更大规模的批量数据,将生产中的推理吞吐量提高1.25倍。

在TB级零售大数据分析基准上,A100 80GB将其性能提高了2倍,使其成为可对最大规模数据集进行快速分析的理想平台。随着数据的动态更新,企业可以实时做出关键决策。

对于科学应用,A100 80GB可为天气预报和量子化学等领域提供巨大的加速。材料vwin 软件Quantum Espresso采用单节点A100 80GB实现了近2倍的吞吐量提升。

RIKEN计算科学中心负责人Satoshi Matsuoka表示:“快速、充足的内存带宽和容量对实现高性能超级计算应用来说至关重要。具有80GB HBM2e GPU内存的NVIDIA A100提供2TB/s的全球最快带宽,可帮助我们大幅提高应用性能。”

A100 80GB的关键特性

A100 80GB具备NVIDIA Ampere架构突破性特性:

·第三代TensorCore核心:通过全新TF32,将上一代Volta架构的AI吞吐量提高多达20倍。通过FP64,将HPC性能提高多达2.5倍。通过 INT8,将AI推理性能提高多达20倍,并且支持BF16数据格式。

·更大、更快的HBM2e GPU内存:使内存容量增加一倍,在业内率先实现2TB/s以上的内存带宽。

·MIG技术:将单个独立实例的内存增加一倍,可最多提供七个MIG,每个实例具备10GB内存。

·结构化稀疏:将推理稀疏模型的速度提高2倍。

·第三代NVLink和NVSwitch,相较于上一代互连技术,可使GPU之间的带宽增加至原来的两倍,将数据密集型工作负载的GPU数据传输速度提高至每秒600 gigabytes。

NVIDIA HGX AI 超级计算平台

A100 80GB GPU是NVIDIA HGX AI超级计算平台的关键组件。该平台将NVIDIA GPU、NVIDIA NVLink® 、NVIDIA InfiniBand网络以及全面优化的NVIDIA AI和HPC软件堆栈的全部功能整合在一起,以提供最优越的应用性能。该平台使研究人员和科学家能够将HPC、数据分析和深度学习计算技术结合起来,共同推动科学进步。
责任编辑:tzh

声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表德赢Vwin官网 网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • NVIDIA
    +关注

    关注

    14

    文章

    4756

    浏览量

    102349
  • gpu
    gpu
    +关注

    关注

    27

    文章

    4566

    浏览量

    128020
  • AI
    AI
    +关注

    关注

    87

    文章

    28569

    浏览量

    265840
收藏 人收藏

    评论

    相关推荐

    阿里云暂停A100服务器出租,AI算力奇缺!国产AI芯片任重道远

    德赢Vwin官网 网报道(文/李弯弯)上个月,美国发布更新针对 AI芯片的出口管制规定,新措施意在填补去年10月发布法规中的漏洞。这样意味着,除了英伟达 A100/H 100之外,其针对中国市场 推出
    的头像 发表于11-09 09:08 3761次阅读

    NVIDIA为新工业革命打造AI工厂和数据中心

    搭载 Grace CPU 以及 NVIDIA网络和基础设施, 助力于企业建立 AI工厂和数据中心,推动 新一轮生成式 AI
    的头像 发表于06-03 18:14 859次阅读

    计算机行业携手NVIDIA为新工业革命打造AI工厂和数据中心

    NVIDIABlackwell 架构的系统,这些系统搭载 Grace CPU 以及 NVIDIA网络和基础设施, 助力于企业建立 AI工厂和数据中心,推动
    发表于06-03 09:14 157次阅读
    计算机行业携手 <b class='flag-5'>NVIDIA</b> 为新工业革命打造 <b class='flag-5'>AI</b> 工厂和数据中心

    自动驾驶企业惠尔智能获新一轮融资

    惠尔智能,专业L4级自动驾驶 技术开发商,近日宣布完成 新一轮融资。本轮投资来自海外知名产业界上市公司,具体金额未透露。
    的头像 发表于05-28 11:34 519次阅读

    银河水滴科技完成新一轮股权融资

    近日,步态身份识别系统研发商银河水滴科技完成 新一轮股权融资,融资额未披露,本轮投资方为苏高新金控。
    的头像 发表于05-28 11:24 872次阅读
    银河水滴科技完成<b class='flag-5'>新一轮</b>股权融资

    步解读英伟达 Blackwell 架构、NVlink及GB200 超级芯片

    冷却 技术,提高计算密度,减少占地面积,并通过高带宽、低延迟的 GPU通信,有效减少数据中心的碳足迹和能源消耗。相较于传统的 NVIDIAH 100风冷基础设施,
    发表于05-13 17:16

    瀜矿科技完成最新一轮A融资 青桐资本担任财务顾问

    近日,瀜矿科技控股平台公司完成最 新一轮 A 融资,由Amperex Technology Limited(ATL)独家领投,老股东上海源晗能源持续加注,青桐资本担任财务顾问。本
    的头像 发表于02-21 10:25 527次阅读

    澎峰科技完成新一轮数千万人民币融资

    近日,澎峰科技(PerfXLab)成功完成了 新一轮数千万人民币的融资。本轮融资将主要用于研发应用于大模型 AI科学计算和工程计算的软硬融合算力解决方案产品。这 解决方案旨在为我国数字化
    的头像 发表于01-31 13:49 634次阅读

    开年资本“热”,已有3家LED企业完成最新一轮投资

    开年以来,资本对LED产业的投资热情不减,近日已有3家LED企业完成最 新一轮投资。
    的头像 发表于01-11 13:50 889次阅读

    英伟达vs.华为/海思:GPU性能

    NVIDIANVLink采用全网状拓扑,如下所示,(双向) GPU-to-GPU最大带宽可达到400 GB/s (需要注意的是,下方展示的是8* A100模块时的600
    的头像 发表于12-27 16:49 1418次阅读
    英伟达vs.华为/海思:<b class='flag-5'>GPU</b>性能<b class='flag-5'>一</b>览

    NVIDIA人工智能开讲 | 什么是AIFor Science?详解AI助力科学研究领域的新突破

    ”两大音频 APP上搜索“ NVIDIA人工智能开讲 ”专辑,众多 技术大咖带你深度剖析核心 技术,把脉未来科技发展方向! AIFor Science (亦称 “
    的头像 发表于12-25 18:30 769次阅读
    <b class='flag-5'>NVIDIA</b> 人工智能开讲 | 什么是 <b class='flag-5'>AI</b> For Science?详解 <b class='flag-5'>AI</b> <b class='flag-5'>助力</b><b class='flag-5'>科学</b>研究领域的新<b class='flag-5'>突破</b>

    SC23 |NVIDIA为全球领先的AI计算平台 Hopper 再添新动力

    NVIDIAH200 能够提供传输速度达 4.8 TB /秒的 141 GB显存。与上 代架构的 NVIDIA A100相比,其容量几
    的头像 发表于11-14 20:05 370次阅读
    SC23 | <b class='flag-5'>NVIDIA</b> 为全球领先的 <b class='flag-5'>AI</b> 计算平台 Hopper 再添新动力

    对英伟达A100芯片算力服务收费价格上调100%,这家企业的硬气来自哪里?

    半导体芯情了解到, A100是英伟达最新 推出款高性能计算芯片,采用了全新的Ampere架构,Ampere架构是 NVIDIA于 GTC 2020发布的
    的头像 发表于11-14 16:30 979次阅读
    对英伟达<b class='flag-5'>A100</b>芯片算力服务收费价格上调<b class='flag-5'>100</b>%,这家企业的硬气来自哪里?

    Oracle 云基础设施提供新的NVIDIAGPU加速计算实例

    。为了帮助满足这 需求,Oracle 云基础设施(OCI)于近日宣布,在 OCI Compute 上全面提供 NVIDIAH 100Tensor Core GPU,同时
    的头像 发表于09-25 20:40 439次阅读
    Oracle 云基础设施提供新的 <b class='flag-5'>NVIDIA</b> <b class='flag-5'>GPU</b> 加速计算实例

    英伟达a100价格半价?但是只适用NERSC用户

    微软 HPC 存储专家Glenn K. Lockwood注意到,美国国家能源研究 科学计算中心正在以 50% 的折扣租用 Perlmutter 超级计算机的基于 Nvidia A100的计算
    的头像 发表于09-11 15:24 605次阅读