在湾芯展SEMiBAY2024《HBM与存储器技术与应用论坛》上,亿铸科技创始人、董事长兼CEO熊大鹏发表了题为《超越极限:大算力芯片面临的技术挑战和解决策略》的演讲。
熊大鹏博士提出,在AI大模型技术的推动下,算力迎来需求拐点,硬件架构将成为满足算力需求的关键路径之一,未来算力增长将以存储单元为中心。
大模型时代的机遇与挑战
在AI大模型时代,随着数据、算力、参数量的不断提升,模型能力显著增强。熊大鹏博士指出,大模型已经从量变逐渐演变为质变,当模型体量足够大时,会出现类似人类“开悟”的涌现能力,大模型的推理能力将显著提升。这一变化预示着AI应用的最后一公里即将打通,业务落地将推动对AI计算能力的需求迎来拐点。
Omdia最新报告《云计算和数据中心人工智能处理器预测》显示,用于云计算和数据中心人工智能的GPU和其他加速芯片的市场规模已从2022年的不到100亿美元增长到2024年的780亿美元,并预计到2029年将达到1510亿美元。然而,2026年市场可能会出现一个明显的拐点,增长动力将从技术采用转向人工智能应用需求的变化。
此外,IDC预测,未来的人工智能服务器将注重提高计算能力和处理效率(能效比),以适应更复杂、更大规模的人工智能应用。预计到2027年,用于推理的AI算力占比将达到72.6%,未来有望达到95%为推理,5%为训练。
应用落地需要硬件架构突破
然而,现有的芯片硬件性能提升速度已难以满足算法模型急剧增长的算力需求。摩尔定律,这个曾经指导半导体行业发展的黄金法则,如今正面临前所未有的挑战。国信证券经济研究所报告指出,大模型参数规模每18个月增长35倍,而摩尔定律下的芯片仅增长2倍。因此,探索和发展新的硬件架构成为算力突破的关键路径之一。
熊大鹏博士强调,在现有的硬件架构下,目前AI芯片面临着“三堵墙”问题:存储墙、能耗墙和编译墙。存储墙是指存储器的数据访问速度跟不上计算单元的数据处理速度,导致性能瓶颈的问题。
同时,由于存储墙的存在则带来了能耗墙和编译墙的问题。能耗墙是指随着芯片性能的提升,能耗和散热问题成为限制进一步性能提升的主要因素。编译墙则是随着AI模型的复杂性增加,编译器需要处理的数据量和计算任务也急剧增加,这使得静态编译优化变得非常困难,手动优化又消耗了大量时间和成本。
存算一体开启算力第二增长曲线
面对这一挑战,亿铸科技选择创新,用“存算一体超异构”架构这一全新的芯片设计思路,极大地减少了数据搬运的延迟,提升了整体的计算效率和能效比。
熊大鹏博士指出,想要打破AI芯片“三堵墙”,就需要从算力的第一性原理(阿姆达尔定律)来着手,将数据搬运量大幅下降,使得F值接近于0,才能保证有效算力密度线性增长。目前业内主要存在两种解决方式:一种是存内计算,另一种是近存计算。
存内计算是通过将存储和计算功能融合,减少数据搬运延迟,提升性能和能效。在理想状态下,F=0,能够实现存储与计算无缝融合。近存计算则是将存储单元和计算单元通过先进封装集成在一起,增加访存带宽、减少数据搬移时延,以提升整体计算效率。
熊大鹏博士强调,通过存算一体架构等技术,可以突破传统计算模式的瓶颈,实现更高的有效算力,打破有效算力的天花板。未来,以算力单元为中心的时代即将结束,算力第二增长曲线将以存储单元为中心。
熊大鹏博士表示,亿铸科技自成立以来,始终致力于通过存算一体,提供贡献更具性价比、更高能效比、更大算力发展空间的AI大算力芯片发展新路径。2023年3月,面对ChatGPT等大模型带来的AI算力挑战,亿铸科技首次提出“存算一体超异构”,为大模型时代AI大算力芯片发展提供全新思路。
未来,随着AI技术的不断进步,算力的需求也在不断增长。亿铸科技将通过创新的存算一体架构,为AI芯片的发展提供新的方向。在大模型时代,亿铸科技的技术和产品将为AI技术的发展提供强大的支持,推动整个行业向前发展。随着亿铸科技技术的不断成熟和应用的不断扩展,我们有理由期待,AI芯片技术将迎来一个新的发展阶段,为科技进步做出更大的贡献!
-
芯片
+关注
关注
455文章
50711浏览量
423098 -
算力
+关注
关注
1文章
964浏览量
14790 -
亿铸科技
+关注
关注
0文章
24浏览量
1377
原文标题:亿新闻 | 湾芯展演讲回顾:以AI芯片架构创新,迎接算力增长新拐点
文章出处:【微信号:亿铸科技,微信公众号:亿铸科技】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论