由于业界持续推动机器学习(ML)和人工智能(AI)的低功耗高性能处理,大量相关新概念和新技术层出不穷。其中,vwin 计算作为一种提高处理效率的方法被重新提出。
这项技术对于给定的应用来说还是相对较新的,而且还有很大的改进空间。最近,IISC的研究人员发表了一篇论文,描述了未来可扩展模拟AI芯片的新框架。
本文将讨论模拟计算对人工智能的好处、面临的挑战以及IISC的新研究。
为何转向模拟?
模拟计算是一种早于数字计算的技术,但随着数字计算的兴起,它在很大程度上已经被遗忘了。现在,研究人员再次着眼于模拟,因为今时今日它在某些方面比数字显示出了更大的优势。
随着数据速率越来越快、处理节点越来越小、全球互联范围越来越广,行业中的一个新兴趋势是数据移动对应能耗的显著增加。
越来越多的寄生导致数据在内存内和内存外的物理移动已经成为芯片整体功耗的最重要因素之一。再加上数据密集型应用ML,我们发现冯·诺伊曼架构不再适合AI/ML。
相反,模拟计算允许内存中的计算,数据可以在存储的地方进行处理。由于总体数据移动显著减少,总体能耗也会显著降低。因此,在AI/ML应用中,模拟AI可以提供比传统数字AI高100倍的能效。
模拟AI的挑战:缩放
尽管模拟计算具有能效优势,但在成为数字计算的竞争对手之前,它仍面临一些挑战。
AI/ML模拟计算设计的关键挑战之一是,模拟处理器的测试和协同设计是非常困难的。传统超大规模集成电路(VLSI)设计可以由数百万个晶体管组成,但工程师可以通过编译高级代码来综合设计。此功能允许在不同流程节点和产品之间轻松移植相同的设计。
然而,由于晶体管偏置的不同,温度变化和有限的动态范围,模拟芯片无法轻松扩展。其结果是,每代产品和每个流程节点都需要单独定制和重新设计。这样不仅使设计更加耗时、成本更加高昂,而且还降低了可扩展性。
模拟AI要想成为主流,首先需要解决设计和可扩展性方面的挑战。
IISC的AI扩展框架
为了解决这个问题,IISC的研究人员在他们最近发表的论文中提出了一个可扩展模拟计算设计的新框架。
他们工作的关键围绕着边缘传播(MP)的泛化,这是一种数学工具,在使用MP原理合成模拟分段线性计算电路方面曾体现过价值。在此基础上,研究人员开发了一种新的基于形状的模拟计算(S-AC)框架,允许研究人员模拟ML架构中常用的不同function。
这个框架可以和数字设计一样,在计算精度与速度/功耗之间进行权衡,还可以跨不同的工艺节点和偏差管理。
为了证明其可行性,研究人员实现了一些S-AC电路,对应ML中几个不同工艺节点的常见数学函数。结果证明,在180纳米CMOS工艺和7纳米FinFET工艺中,电路I/O特性在合理范围内保持一致。
有了新的框架,研究人员希望在不久的将来能够实现扩展性更强、成本效率更高的模拟AI设计。
审核编辑 :李倩
-
人工智能
+关注
关注
1791文章
47183浏览量
238214 -
机器学习
+关注
关注
66文章
8406浏览量
132557 -
AI芯片
+关注
关注
17文章
1879浏览量
34989
原文标题:模拟计算会成为AI芯片的未来吗?
文章出处:【微信号:SSDFans,微信公众号:SSDFans】欢迎添加关注!文章转载请注明出处。
发布评论请先 登录
相关推荐
评论