1 一文深度梳理AI算力芯片-德赢Vwin官网 网
0
  • 聊天消息
  • 系统消息
  • 评论与回复
登录后你可以
  • 下载海量资料
  • 学习在线课程
  • 观看技术视频
  • 写文章/发帖/加入社区
会员中心
创作中心

完善资料让更多小伙伴认识你,还能领取20积分哦,立即完善>

3天内不再提示

一文深度梳理AI算力芯片

路科验证 来源:投研实习生 2024-04-24 15:13 次阅读

几十年前,CPU 作为通用处理器几乎处理所有计算任务,那个时代的显卡有助于加快应用程序中图形的绘制速度。但在今天ChatGPT引爆的人工智能iPhone时刻,GPU成为了整个行业最具主导地位的芯片之一。大家都在抢购GPU,龙头企业英伟达也因此赚的盆满钵满。

在此前的文章中我们介绍了AI算力的主要载体数据中心IDC的商业模式和组成部分,并进一步走进服务器这个数据中心中主要负责计算的硬件。服务器中有处理器、内存、硬盘等零部件,其中最核心的负责计算的当属处理器,也就是芯片。因此,今天我们继续梳理AI算力芯片,看看为什么在当今AI时代GPU占据了主导地位以及我国目前的发展情况与相关企业。

产业链

从产业链说起,首先来看芯片在产业链中扮演的角色。这里从两方面说,站在算力产业链角度,芯片属于上游产品,正如我们在《AI服务器革命:硬件进化驱动人工智能新纪元》一文中提到,芯片与其它硬件组成服务器,也就是产业链中游,服务器又与其它设备共同组成下游的数据中心。

479d6f82-01ff-11ef-a297-92fbcf53809c.png

如果站在半导体产业链的角度看,那么芯片属于中游。它的上游包括支撑集成电路设计和制造的 EDA 辅助设计工具和 IP 服务,半导体制造设备、芯片生产测试流程。产业链下游包括各类整机厂商、终端设备、网络设备和应用系统等,其中最重要的是服务器、桌面和嵌入式系统等硬件设备厂商。

47bb1e74-01ff-11ef-a297-92fbcf53809c.png

由于全球化的不断深入,半导体产业发生了多次区域转移,分工不断细化。可以将半导体的生产分为四个主要步骤:设计、制造、封装、测试。在传统的垂直整合制造商模式(IDM,即自己完成设计、制造、封装测试等所有环节)基础上诞生了著名的Fabless+Foundry模式,Fabless厂商是以美国为主的负责设计,而Foundry则是以中国台湾为主的负责制造的厂商。两种模式各有利弊,不过这属于半导体产业链范畴的讨论,我们在此不做赘述。

47cb4af6-01ff-11ef-a297-92fbcf53809c.png

CPU、GPU、ASICFPGA

半导体产品可以分为集成电路(芯片)、分立器件、光电器件传感器,其中芯片进一步分为数字芯片和vwin 芯片,数字芯片下还有逻辑芯片、微处理器和存储芯片三类。我们所说到的算力芯片或AI芯片实际上指的都是逻辑芯片,广义上可以是所有采用逻辑门的大规模集成电路,包括以 CPU、GPU 为代表的通用计算芯片、专用芯片(ASIC)和 FPGA,狭义上,AI芯片指针对大量数据进行训练和推理设计的芯片。

47e44bdc-01ff-11ef-a297-92fbcf53809c.png

CPU

CPU是中央处理器(Central Processing Unit),是计算机的运算核心和控制核心。CPU包括运算器(算术逻辑单元ALU、累加寄存器、 数据缓冲寄存器、状态条件寄存器)、控制器(指令寄存器IR、程序计数器PC、地址寄存器、 指令译码器ID、时序、总线、中断逻辑控制)、高速缓冲存储器(Cache)、内部数据总线 、控制总线、状态总线及输入/输出接口等模块。

48012810-01ff-11ef-a297-92fbcf53809c.png

CPU 的主要功能是解释计算机指令以及处理计算机软件中的数据,其运行程序时主要包括一下5个步骤:1)指令寄存器(IR)从存储器或高速缓冲存储器中获取指令;2)指令译码器(ID)对指令进行译码,并将指令分解成一系列简单的微操作;3)译码后的微操作通过控制单元发送给CPU内的运算器执行数学运算和逻辑决策,;4)执行某些指令时需要读取或写入数据到主存储器,地址寄存器用于确定存储器中数据的位置,而数据经过内部总线传输;5)指令执行完成后,结果会被写回到CPU的寄存器或存储器中,供后续指令使用。

我们可以将这个流程类比自己做数学题时的场景,从最开始的读题(获取指令)、审题(指令译码)到一步一步计算答案(执行运算),再将答案写在草稿纸上(存储结果)用于下一小问。对于CPU来说这整个过程是一个连续循环,称为指令周期,包括获取指令、译码、执行、访问存储器和写回结果的步骤。人们用主频来衡量以上一个指令周期被执行的速度(CPU性能),主频是指CPU内部时钟的频率,通常以赫兹(Hz)为单位,1赫兹等于每秒钟一个周期。此外,FLOPS(每秒执行多少浮点运算)也被用于衡量CPU性能。

在CPU的发展历史中,为了进一步提升它的运算能力人们提出了多线程(Multithreading)和多核(Multi-core)的设计方法。多线程指的是程序可以同时执行多个任务,也就是电脑可以同时做不同的事。例如,一个线程可以处理用户输入,同时另一个线程可以执行后台计算,还有一个线程可以处理网络通信。即使一个线程被阻塞,其他线程仍然可以继续工作,从而提高了整体的效率和程序的响应性。多核则是增加CPU内的处理单元,使CPU可以并行处理多个指令流。

48182592-01ff-11ef-a297-92fbcf53809c.png

可以按指令集和应用领域对CPU进行分门别类,指令集是 CPU 所执行指令的二进制编码方法,是软件和硬件的接口规范。按照指令集可分为 CISC复杂指令集和 RISC精简指令集两大类,在上一篇文章中做过详细介绍,这里不再赘述。CPU 按照下游应用领域还可分为通用微处理器(MPU, Micro Processor Unit)和微控制器(MCU, Micro Controller Unit),MPU便是我们熟悉的应用于服务器、桌面(台式机/笔记本)、超级计算机等中的CPU。MCU是用于控制类应用的低性能、低功耗CPU。MCU的主频一般低于 100MHz,一般是用在智能制造、工业控制智能家居、遥控器、汽车电子、机器手臂的控制等。

4830cc78-01ff-11ef-a297-92fbcf53809c.png

从竞争格局上看,英特尔AMD占据了大部分市场份额,其中英特尔作为CPU的缔造者拥有绝对主导地位。从服务器CPU角度看,2022年英特尔与AMD合计占到全球90%的市场份额,不过近两年AMD不断抢占英特尔份额。从MPU整体上看,英特尔占据半壁江山,移动设备端苹果和高通分别拥有13%和9%的份额。从MCU上看则是日韩系厂商份额较多。

4848407e-01ff-11ef-a297-92fbcf53809c.png

48641236-01ff-11ef-a297-92fbcf53809c.png

GPU

作为通用处理器,以前几乎所有的计算任务都由CPU处理,不过到了八十年代末九十年代初,越来越多的图形渲染处理需求催生了GPU的诞生,黄仁勋正是在这一时期创立的英伟达,专注于GPU的研发与制造。

GPU是图形处理器(Graphic Processing Unit),又称为显示芯片(显卡),最初是作为专用处理器来辅助CPU进行图像和图形相关运算工作的。从结构上来说,CPU的设计是低延迟的串行计算模式,拥有少数强大的ALU算数逻辑单元高效的挨个完成每个任务。而GPU侧重于并行计算(Parallel Processing),拥有大量的ALU可以同时处理大规模的简单计算。简单来说,CPU的工作模式好比一位博士单独去解一道复杂的高数题,而GPU则如同一百名高中生一起计算加减、乘除法。

487e759a-01ff-11ef-a297-92fbcf53809c.png

CPU已经如此强大了,为什么还需要GPU呢,或者说为什么在图形处理和如今的人工智能浪潮下为什么GPU这个以前CPU的小弟成为了王者呢?首先在图像处理领域,图片是由一个个像素点组成的,比如一张1080p的图片实际上是由1920x1080= 207万像素点组成,但是每个像素点的计算并不复杂。由CPU加载图片时是一个一个的单独运算每个像素点,而使用GPU的话则是并行计算,由多个ALU同时处理每个像素点,从而实现快速处理全部像素点。

489bb3e4-01ff-11ef-a297-92fbcf53809c.gif

在人工智能大模型中同理,大模型可以有各种不同结构,但其背后的本质都是基于神经网络深度学习,它的核心运算需求并不高,主要就是累加和累乘的运算,但是由于模型参数巨大、网络层数复杂,因此需要运用大规模并行计算,这也就是为什么GPU如今独领风骚。

48c28e2e-01ff-11ef-a297-92fbcf53809c.gif

由黄仁勋于1993年创立的英伟达可谓是GPU的奠定者和缔造者,1999年英伟达推出了被誉为世界上第一款真正的GPU的GeForce 256,并凭借此产品获得巨大成功。然而,作为专用处理器,传统 GPU 应用局限于图形渲染计算,在面对非图像并涉及大量并行运算的领域,比如 AI、加密解密、科学计算等则更需要通用计算能力。为了提高GPU的通用性,英伟达于2006年推出的CUDA开发环境构造了其强大的生态护城河,自此GPGPU(General Purpose GPU)时代开启

4917b0fc-01ff-11ef-a297-92fbcf53809c.png

CUDA(Compute Unified Device Architecture,统一计算设备架构) 可以让开发者能够用类似 C 语言的方式编写程序,让 GPU 来处理计算密集型任务。简单来说,CUDA平台是英伟达提供给开发者的编程工具,包含了一系列工具函数,有各种功能,同时CUDA可以让开发者调用成千上万的 GPU 核心同时工作,进一步提高计算速度。随着时间推移,CUDA被应用在包括物理化学、生物医药、人工智能等众多行业领域,其开发者生态也不断丰富,同时由于CUDA只适用于英伟达的GPU,它成为了英伟达主导GPU的杀手锏。类似于CUDA的还有针对AMD的GPU使用的ATIStream,以及两款开源平台ROCm和OpenCL,这两者可实现不同生态GPU的相互迁移。

492bba8e-01ff-11ef-a297-92fbcf53809c.png

在GPU发展历史上,除了CUDA平台外,微架构迭代与芯片制程升级是单卡GPU性能提升的关键途径。GPU 的微架构是用以实现指令执行的硬件电路结构设计,不同的微架构设计会对 GPU 的性能产生决定性的影响。以英伟达为例,从最初 Fermi 架构到现在的Hopper架构和最新的Blackwell架构,英伟达平均买两年更新一次架构,每一阶段都在性能和能效比方面得到提升,同时引入了新技术,如 CUDA、GPU Boost、RT 核心和 Tensor 核心等,作为行业第二的AMD也紧跟英伟达更新其微架构。

4943d42a-01ff-11ef-a297-92fbcf53809c.png

对比当前主流的顶级GPU英伟达H100和AMD的MI250X可以看出,二者在硬件层面上的差距并不大,真正能够使英伟达维持80%市占率达的其实是软件层面的CUDA平台,由于多年以来众多主要开发者都使用基于CUDA的英伟达GPU,其形成的广泛生态和粘性极大的增加了进行更换厂商的总成本,同时这也给远在大洋彼岸的国内厂商追赶英伟达造成更大的挑战。因此英伟达不仅仅是我们印象中的卖芯片的硬件公司,它也是一家强大的软件公司。

495ac978-01ff-11ef-a297-92fbcf53809c.png

4975dd44-01ff-11ef-a297-92fbcf53809c.png

ASIC

在GPGPU时代GPU已经具备了类似CPU的通用性,专用处理器中还剩下ASIC和FPGA两款。ASIC (Application Specific Integrated Circuit,专用集成电路)是为了某种特定需求而专门定制的芯片。ASIC 的计算能力和计算效率都可以根据算法需要进行定制,因此与通用芯片相比具有体积小、功耗低、计算性能高等优势。但是缺点也很明显,ASIC只能针对特定的几个应用场景,算法和流程变更可能导致 ASIC 无法满足业务需求。

4994038c-01ff-11ef-a297-92fbcf53809c.png

由于目前对于芯片的需求爆发主要还是来自AI领域,针对AI计算场景设计的ASIC从性能、能效、成本均极大的超越了通用芯片,是GPU的潜在竞争对手。目前全球 ASIC 市场并未形成明显的头部厂商,由于 ASIC 需要定制且开发周期长,大多为云计算/互联网等大厂有资金与实力进行研发,且仅当其定制化应用场景市场空间足够大时量产ASIC才能实现丰厚利润。目前市场上主流 ASIC 有 TPU 芯片、NPU 芯片、VPU 芯片以及 BPU 芯片,它们分别是由谷歌、寒武纪、英特尔以及地平线公司设计生产,预计未来将有更多诸如微软、亚马逊、百度、阿里等云计算巨头加入定制自家的ASIC。

49a7a216-01ff-11ef-a297-92fbcf53809c.png

FPGA

除了ASIC外,FPGA (Field-Programmable Gate Array,现场可编程门阵列)也是一种专用芯片,其最大特点是现场可编程性。CPU、GPU以及各类 ASIC 芯片在制造完成后,其芯片的功能就已被固定,而 FPGA 芯片在制造完成后,用户可以根据自己的实际需要,将自己设计的电路通过 FPGA 芯片公司提供的专用 EDA 软件对 FPGA 芯片进行功能配置,从而将空白的 FPGA 芯片转化为具有特定功能的集成电路芯片。FPGA 芯片由可编程的逻辑单元(Logic Cell,LC)、输入输出单元(Input Output Block,IO)和开关连线阵列(Switch Box,SB)三个部分构成。

49c2660a-01ff-11ef-a297-92fbcf53809c.png

2023 年全球 FPGA 市场规模有望达 94 亿美元,且保持15%左右的增速。从竞争格局上看,被AMD收购的赛灵思Xilinx 约占全球 FPGA 市场份额 52%,Intel 旗下 Altera 约占 35%。

49eafcd2-01ff-11ef-a297-92fbcf53809c.png

中美情况对比

前面详细介绍了主要四种处理器芯片的功能、市场空间和竞争格局,接下来进一步说说中国和美国在AI芯片上的差距。首先,无论是站在国家安全、自主可控的角度还是受美国卡脖子技术禁令影响的角度,国产自研替代虽然艰难但一定是未来最可靠甚至是唯一的出路

从算力、算法和应用层出发,中国厂商和美国同行相比都有一定差距。在算力端存在芯片性能及生态差距,在芯片的生产端核心环节如芯片的设计、流片等也均由海外主导;在算法端,海外在基础研究方面较为领先,如谷歌发布底层架构 Transformer ;应用端,海外头部应用多已成为行业标准,拥有较为良好的用户基础,有助于 LLM+产品的快速落地,如办公领域的微软 Office 产品。

4a02378a-01ff-11ef-a297-92fbcf53809c.png

不过算法和应用端的差距不大,而算力层面的差距是最关键的。一方面算力端的核心环节均受海外主导,很难绕开,而且海外头部算力厂商围绕自身产品形成了包含应用、算法的生态壁垒,更加难以突破。另一方面,算力处于基础支撑地位,直接影响模型的落地和应用的推广进度。美国政府为了限制中国AI的发展更是出台政策禁止了美国企业将高端芯片卖给国内企业,自2022年以来美国已多次出台出口限制法案,限制力度逐步提升。去年10月的最新法案中以总处理性能 TPP(Total Processing Performance,即计算速度*字节长度)和性能密度 PD(Performance Density,即每平方毫米的 TPP)为要求,TPP>4800 的芯片、TPP>1600 且 PD>5.92 的芯片属于高性能芯片,不再被允许出口。

4a1aa108-01ff-11ef-a297-92fbcf53809c.png

在这个背景下,我们来对比下中美主要AI芯片发展进度。国内的算力产业整体上可分为三大体系:以鲲鹏+昇腾为核心芯片的Arm服务器华为系,以海光为核心芯片、中科曙光为整机厂的x86服务器中科院系,以飞腾为核心芯片、中国长城为整机厂的Arm服务器中电子系

4a3092ec-01ff-11ef-a297-92fbcf53809c.png

在CPU领域,国内企业经过多年发展与积累形成了海光信息、龙芯中科、华为、飞腾、兆芯和申威六大厂商齐头并进的局面,其中华为和海光性能最好,可对标英特尔与AMD的顶级CPU产品,飞腾和申威的芯片则主要应用于国家超算中心如天河、神威。从三大运营商的采购情况也可以看出,2022年采购中国产CPU服务器占比达到37%,其中海光占比19.66%,华为鲲鹏占比17.41%

4a496ca4-01ff-11ef-a297-92fbcf53809c.png

4a661e80-01ff-11ef-a297-92fbcf53809c.png

4a873b6a-01ff-11ef-a297-92fbcf53809c.png

GPU方面,由于GPU领域英伟达占据绝对领导地位,国内厂商目前在硬件和生态上都有较大差距。国内GPU最强的是华为,昇腾310为推理芯片,昇腾910为训练芯片。昇腾 910 芯片采用7nm制程,FP16 算力达到 320TFLOPS、INT8 算力达到 640TOPS,与 NVIDIA A100 80GB 版本旗鼓相当,组网集群上限达到18000张(英伟达A100为16000,H100为50000)。不过与英伟达H100和今年刚刚发布的B100相比存在1-2代差距。

4aa4e8c2-01ff-11ef-a297-92fbcf53809c.png

此外,海光信息基于GPGPU架构推出DCU深算产品,软件生态完善兼容通用的“类 CUDA”环境,旗下产品DCUZ100 的关键性能指标实现FP6410.8TFlops,显存32GB HBM2,也可对标英伟达A100和AMD的MI100单卡性能。

4ace581a-01ff-11ef-a297-92fbcf53809c.png

发展趋势

最后来说说AI芯片的发展趋势有哪些,由于未来应用于大模型推理的需求将远超过训练需求,AI芯片也朝着更高性能、更低功耗和更靠近边缘和端侧发展。在性能提升方面,单个处理器层面的提升主要来自过去几十年都遵循的摩尔定律,也就是芯片制程的提升,以及设计层面的微架构迭代。然而当晶体管大小接近 1nm 左右时,与 0.1nm 的原子直径尺寸量级接近,量子隧穿引起的晶体管漏电效应将愈发明显,以至于影响芯片正常工作。微架构方面,英伟达于今年三月GTC大会上最新推出的Blackwell架构也展现出架构更新放缓的趋势。

4ae0d5da-01ff-11ef-a297-92fbcf53809c.png

在这个背景下,单张GPU的性能已接近瓶颈,因此未来的发展必然聚焦于多张卡的联合上。在芯片封装层面,通过Chiplet和CoWos等先进封装技术将多颗芯片与内存等模块封装在一起。在系统层面,通过卡间互联、服务器间互联以及数据中心集群间互联等方式集合更多的GPU。

此外,随着越来越多的推理需求出现,AI芯片也将越来越多的从云端转移到边缘和端侧,也会出现更多低功耗的端侧芯片,比如现在的自动驾驶、AI PC和AI手机等概念,都需要将算力直接部署到汽车、电脑或手机上。

4afd1c04-01ff-11ef-a297-92fbcf53809c.png


审核编辑:刘清
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表德赢Vwin官网 网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉
  • 处理器
    +关注

    关注

    68

    文章

    19259

    浏览量

    229638
  • 半导体
    +关注

    关注

    334

    文章

    27286

    浏览量

    218027
  • 光电器件
    +关注

    关注

    1

    文章

    178

    浏览量

    18506
  • 人工智能
    +关注

    关注

    1791

    文章

    47182

    浏览量

    238197
  • GPU芯片
    +关注

    关注

    1

    文章

    303

    浏览量

    5804

原文标题:为什么是GPU?一文深度梳理AI算力芯片

文章出处:【微信号:Rocker-IC,微信公众号:路科验证】欢迎添加关注!文章转载请注明出处。

收藏 人收藏

    评论

    相关推荐

    梳理:如何构建并优化GPU云中心?

    目前最常见的AI中心部署的GPU集群大小为 2048、1024、512 和 256,且部署成本随 GPU 数量线性增长。本文将以相对折中的1024 GPU卡(H100)的规模为例展开分析。
    的头像 发表于 11-15 11:59 315次阅读
    <b class='flag-5'>一</b><b class='flag-5'>文</b><b class='flag-5'>梳理</b>:如何构建并优化GPU云<b class='flag-5'>算</b><b class='flag-5'>力</b>中心?

    企业AI租赁是什么

    企业AI租赁是指企业通过互联网向专业的提供商租用所需的计算资源,以满足其AI应用的需求。
    的头像 发表于 11-14 09:30 459次阅读

    GPU开发平台是什么

    随着AI技术的广泛应用,需求呈现出爆发式增长。AI租赁作为
    的头像 发表于 10-31 10:31 162次阅读

    亿铸科技熊大鹏探讨AI芯片的挑战与解决策略

    在SEMiBAY2024《HBM与存储器技术与应用论坛》上,亿铸科技的创始人、董事长兼CEO熊大鹏博士发表了题为《超越极限:大芯片的技术挑战与解决之道》的演讲,深入剖析了AI大模型
    的头像 发表于 10-25 11:52 378次阅读

    AI芯片供电电源测试利器:费思低压大电流系列电子负载

    AI芯片作为驱动复杂计算任务的核心引擎,其性能与稳定性成为了决定应用成败的关键因素。而在这背后,供电电源的稳定性和高效性则是保障AI
    的头像 发表于 10-25 11:26 386次阅读
    <b class='flag-5'>AI</b><b class='flag-5'>算</b><b class='flag-5'>力</b><b class='flag-5'>芯片</b>供电电源测试利器:费思低压大电流系列电子负载

    体架构创新助力国产大AI芯片腾飞

    在湾芯展SEMiBAY2024《AI芯片与高性能计算(HPC)应用论坛》上,亿铸科技高级副总裁徐芳发表了题为《存体架构创新助力国产大
    的头像 发表于 10-23 14:48 276次阅读

    【「芯片 | 高性能 CPU/GPU/NPU 微架构分析」阅读体验】--全书概览

    本帖最后由 1653149838.791300 于 2024-10-16 22:19 编辑 感谢平台提供的书籍,厚厚的本,很有分量,感谢作者的倾力付出成书。 本书主要讲芯片
    发表于 10-15 22:08

    名单公布!【书籍评测活动NO.43】 芯片 | 高性能 CPU/GPU/NPU 微架构分析

    试用评测资格! 前言 不知不觉中,我们来到个计算机科学飞速发展的时代,手机和计算机中各类便捷的软件已经融入日常生活,在此背景下,硬件特别是强劲的芯片,对于软件服务起到不可替代的支
    发表于 09-02 10:09

    大模型时代的需求

    现在AI已进入大模型时代,各企业都争相部署大模型,但如何保证大模型的,以及相关的稳定性和性能,是个极为重要的问题,带着这个极为重要的问题,我需要在此书中找到答案。
    发表于 08-20 09:04

    摩尔线程张建中:以国产助力数智世界,满足大模型需求

    摩尔线程创始人兼CEO张建中在会上透露,为了满足国内对AI的迫切需求,他们正在积极寻求与国内顶尖科研机构的深度合作,共同推动更大规模的AI
    的头像 发表于 05-10 16:36 949次阅读

    图看懂星河AI数据中心网络,全面释放AI时代

    华为中国合作伙伴大会 | 图看懂星河AI数据中心网络,以网强,全面释放AI时代
    的头像 发表于 03-22 10:28 750次阅读
    <b class='flag-5'>一</b>图看懂星河<b class='flag-5'>AI</b>数据中心网络,全面释放<b class='flag-5'>AI</b>时代<b class='flag-5'>算</b><b class='flag-5'>力</b>

    数据语料库、算法框架和芯片AI大模型中的作用和影响

    数据语料库、算法框架和芯片的确是影响AI大模型发展的三大重要因素。
    的头像 发表于 03-01 09:42 1073次阅读

    立足,聚焦AI!顺网科技全面走进AI时代

    “立足,聚焦AI”,顺网科技进军AI时代的号角已被吹响。 1月18日,顺网科技(300113.SZ)以“跃迁·向未来”为主题的战略升
    的头像 发表于 01-19 10:57 455次阅读
    立足<b class='flag-5'>算</b><b class='flag-5'>力</b>,聚焦<b class='flag-5'>AI</b>!顺网科技全面走进<b class='flag-5'>AI</b>智<b class='flag-5'>算</b>时代

    弘信电子与AI服务器合资,助力国产芯片落地

    此外,弘信电子近期在AI业务上取得了突破性进展,这并非源自本土化的积累,而是依赖于团队敏锐的战略眼光和强烈的创新动力。此次投资是弘信电子在AI
    的头像 发表于 12-25 09:30 952次阅读

    读懂:什么是“”?

    的定义即计算能力(ComputingPower)。《中国白皮书(2022年)》将其定
    的头像 发表于 12-22 08:27 7065次阅读
    <b class='flag-5'>一</b><b class='flag-5'>文</b>读懂:什么是“<b class='flag-5'>算</b><b class='flag-5'>力</b>”?