模拟计算会成为AI芯片的未来吗?

分享到:

由于业界持续推动机器学习(ML)和人工智能(AI)的低功耗高性能处理,大量相关新概念和新技术层出不穷。其中,模拟计算作为一种提高处理效率的方法被重新提出。

这项技术对于给定的应用来说还是相对较新的,而且还有很大的改进空间。最近,IISC的研究人员发表了一篇论文,描述了未来可扩展模拟AI芯片的新框架。

 

 

本文将讨论模拟计算对人工智能的好处、面临的挑战以及IISC的新研究。

为何转向模拟?

模拟计算是一种早于数字计算的技术,但随着数字计算的兴起,它在很大程度上已经被遗忘了。现在,研究人员再次着眼于模拟,因为今时今日它在某些方面比数字显示出了更大的优势。

 

 

随着数据速率越来越快、处理节点越来越小、全球互联范围越来越广,行业中的一个新兴趋势是数据移动对应能耗的显著增加。

越来越多的寄生导致数据在内存内和内存外的物理移动已经成为芯片整体功耗的最重要因素之一。再加上数据密集型应用ML,我们发现冯·诺伊曼架构不再适合AI/ML。

 

 

相反,模拟计算允许内存中的计算,数据可以在存储的地方进行处理。由于总体数据移动显著减少,总体能耗也会显著降低。因此,在AI/ML应用中,模拟AI可以提供比传统数字AI高100倍的能效。

模拟AI的挑战:缩放

尽管模拟计算具有能效优势,但在成为数字计算的竞争对手之前,它仍面临一些挑战。

AI/ML模拟计算设计的关键挑战之一是,模拟处理器的测试和协同设计是非常困难的。传统超大规模集成电路(VLSI)设计可以由数百万个晶体管组成,但工程师可以通过编译高级代码来综合设计。此功能允许在不同流程节点和产品之间轻松移植相同的设计。

 

 

然而,由于晶体管偏置的不同,温度变化和有限的动态范围,模拟芯片无法轻松扩展。其结果是,每代产品和每个流程节点都需要单独定制和重新设计。这样不仅使设计更加耗时、成本更加高昂,而且还降低了可扩展性。

模拟AI要想成为主流,首先需要解决设计和可扩展性方面的挑战。

IISC的AI扩展框架

为了解决这个问题,IISC的研究人员在他们最近发表的论文中提出了一个可扩展模拟计算设计的新框架。

他们工作的关键围绕着边缘传播(MP)的泛化,这是一种数学工具,在使用MP原理合成模拟分段线性计算电路方面曾体现过价值。在此基础上,研究人员开发了一种新的基于形状的模拟计算(S-AC)框架,允许研究人员模拟ML架构中常用的不同function。

 

 

这个框架可以和数字设计一样,在计算精度与速度/功耗之间进行权衡,还可以跨不同的工艺节点和偏差管理。

为了证明其可行性,研究人员实现了一些S-AC电路,对应ML中几个不同工艺节点的常见数学函数。结果证明,在180纳米CMOS工艺和7纳米FinFET工艺中,电路I/O特性在合理范围内保持一致。

有了新的框架,研究人员希望在不久的将来能够实现扩展性更强、成本效率更高的模拟AI设计。

继续阅读
AI时代可能来的有点早,这些职业危险了!

《流浪地球2》中的550系列量子计算机给人印象深刻,能在极短的时间内以人类无法比拟的效率完成巨大的行星发动机的3D打印工作。甚至,还进化出了人工智能:MOSS。

“裁掉人工,雇佣AI”,ChatGPT开始替代人类

只要在ChatGPT的聊天框里把自己的写作需求告诉AI,等上几十秒后,一篇整合大数据、纯原创、观点鲜明的文章就新鲜出炉了。

AI时代下,设计行业的未来

AI人工智能正在越来越多领域中被应用,那么除了AI绘画,在设计领域里,AI人工智能还能在哪些领域发挥功能?在本篇文章里,作者便发表了他的看法,对AI未来在设计领域可发挥的作用进行了总结,一起来看一看吧。

生成式AI已掀起浪潮,但还没走出伦理困境

近来,AIGC(生成式人工智能)火了、而且是爆红。在《Science》此前发布的2022年度科学十大突破中,AIGC就赫然在列,并且在诸多大厂、相关机构的2023年科技趋势预测中,AIGC也成为了继NFT、元宇宙、Web3之后,俨然又一个“出圈”的风口。

当AI不再是人工智障,人工智能会取代人类吗?

无论是“小破球”中的Moss,还是最近爆火的ChatGPT,既让人对人工智能的前景充满浪漫想象,同时也令人对其细思极恐。

精彩活动