边缘计算的巅峰是自主学习,而我们还只在山脚下

标签:边缘计算
分享到:

2012年,一个名叫Alex Krizhevsky的学生设计了被称之为AlexNet的卷积神经网络,并且参加了ImageNet大规模视觉识别挑战赛,结果准确度远超过以往的冠军成绩。自此,以卷积神经网络为代表的深度学习的技术在各个领域得到了广泛的应用,比如零售领域的刷脸支付、交通领域的车辆识别、自然语言处理领域的语音的识别以及围棋领域的阿尔法GO。

但如果站在人类历史的角度看人工智能,这次高潮并不是它经历的第一次发展;卷积神经网络虽然扮演了非常重要的角色,却也不是最主要的推手。因为早在上世纪90年代,上一次人工智能高潮兴起的时候,卷积神经网络就已经被使用。当时人工智能界有三个获得了图灵奖的人物:Yann Lecun、Geoffrey Hinton、Yoshua Bengio,其中Yann Lecun上世纪90年代在贝尔实验室工作时,就设计了卷积神经网络,并且以他自己的名字命名这个网络为LeCun et al 89,只有三层左右,应用在了当时北美的支票字符识别上。

推动本轮人工智能发展的核心因素

 

那么推动本轮人工智能发展的,到底有哪些核心因素?”在2021英特尔AI计算盒参考设计主题分享会上,英特尔公司高级首席工程师、物联网事业部中国区首席技术官张宇博士在主题演讲中说到,“我认为总结起来有两方面,一方面在算力,另一方面是数据。

算力方面,最能体现人类算力水平就是超级计算机。在1994年全球超级五百强算力榜单第一次发布的时候,排名第一名的超算每秒浮点运算峰值速度是13000/次;而在2021年6月底更新的榜单上,排名首位的超算每秒浮点运算峰值速度达到53亿亿次(TFlop/s)。

摩尔定律带来的算力急剧提升,让我们能在更短时间内完成网络模型的训练,或者处理更加复杂的人工智能网络系统,极大地拉近了人工智能技术与商业诉求的距离,推动人工智能技术的落地。

数据方面,人工智能的发展从来都离不开数据。以LeCunet为例,普通开放数据池包含超过1400万兆经过标注的图片,而且这个数字在不断增加,算法开发人员利用这些图片可以进行图像分类训练。这些图片、数据增加的背后,实际上是基于通讯技术与存储技术的不断演进。

上世纪90年代我们还在用磁盘存储,硬盘只有几百兆空间,如今单位都论TB;通信则在5G迅速普及的情况下,允许开发者用更大的网络传输带宽、更低的传输延时将带来性价比更高的数据收集方式。可见人工智能的发展离不开计算、通讯和存储技术,他们才是推动了本轮人工智能发展的最主要因素。

边缘计算的三个阶段

与之前存在于实验室或超算中不同,现如今人工智能技术已经在越来越多地在边缘端得到普及,但目前绝大多数都是利用数据中心的算力和数据训练网络模型,再把网络模型推送到边缘执行推理操作。边缘做推理实现起来比较容易也合理,毕竟算力和存储都有限,“但这种方式有一定的弊端,就是模型更新是由数据中心控制的,不可能随时随地为新进的数据做更新。” 张宇博士说到。

在某些用户使用场景中,对模型更新频率是有要求的。比如ABB公司的机械臂在废品分拣过程当中,用机器视觉的方式识别废品形态,根据识别结果控制机械臂的抓取。但每天都会有新形态的废品出现,很难用一个网络模型涵盖所有不同物体,这就需要对模型不断进行动态训练,不断进行动态更新,所以今后人工智能的发展,边缘训练是必然趋势。

所谓边缘训练,并不是把现有数据中心的训练方法原封不动地搬到边缘,毕竟边缘设备计算、存储能力相对有限。另外在边缘会涉及到如何保护数据,因为有时候用户并不希望数据分享给所有边缘设备使用者。

边缘训练是人工智能在边缘发展的第二个阶段,但不是最终阶段,因为当下人工智能有一半是人工,另一半是智能,人还是扮演着非常重要的角色。虽然可以用极大的算力以及大量的数据训练一个网络系统,但是网络模型结构仍需要人提前设计好,在设计结构的过程中,人很多的意识其实已经嵌入到模型中。

张宇博士表示,展望未来的边缘计算和人工智能物联网(AIoT),一定会有自主的发展出现。“系统会自主化决定应该选择模型、策略、算法,自动收集数据训练模型,把训练结果用于实际系统,open Pose 技术将在业界普及。我们认为这是边缘人工智能发展的第三个阶段,也是最高阶段。

如果用珠穆朗玛峰作为类比,实现边缘推理,只代表站在了边缘计算的山脚;实现边缘训练,意味着站在了山腰;只有实现自主学习才意味着站在了高峰。

人工智能的发展离不开计算、通讯和存储技术的不断提升,“英特尔的产品恰恰涵盖了这三个行业,计算方面提供CPU、GPU、FPGA等不同产品组合,满足用户对计算不同的需求;通讯方面,在3G时代曾推出自己的通讯标准,在4G和5G国际通讯标准制定过程当中也贡献良多;存储方面提供傲腾(Optane)等技术,可加快闪存读写速度,提高存储能力。” 张宇博士介绍到,英特尔所提供的是一个端到端的人工智能解决方案,通过将5G、AI、智能边缘三者的融合,将边缘计算、人工智能推向新的发展方向。

XPU与架构融合适应不同AI网络模型

在分享会后,张宇博士还接受了《电子工程专辑》等媒体的采访当前在人工智能领域,CPU、GPU、DPU、FPGA各种芯片分工明确,在谈到哪一类处理器更适合人工智能应用时,他表示,如今的芯片已不单纯提供计算功能,而变成了综合系统。从计算角度分析,业界不同类型的负载对应着不同的计算架构,线上交易、日常办公等标量数据的处理,需要根据逻辑判断的结果动态调整整个处理流程,CPU最适合这种有很多的分支、跳转的操作,因为CPU最灵活,可以不断的进行判断和调整。

科学计算类、图像处理渲染应用的矢量数据,更适合 GPU去处理,因为GPU可以在一条指令周期内处理连续若干个数据单元;5G通讯类应用负载需要对系统功能、接口做灵活调配,这种情况下FPGA是最优的架构类型,可以通过灵活配置改变硬件的操作。

现在的人工智能以卷积神经网络为基础,最基本的运算是矩阵乘法和加法。然而用户对于计算的需求是多样化的,很少只做标量运算或只做矢量运算,一个用户应用里涉及到的负载类型是多样化,对于特定负载的处理如果要做性能功耗最优,就需要特定架构。业界很多加速芯片的思路都是类似的,英特尔有“XPU战略”,人工智能加速芯片产品中都有专门用作矩阵运算的硬件,“只有把人工智能的核心运算交给专门的硬件来做,才能达到性能的最大化。”

谈到英特尔与其他AI解决方案商相比的优势,张宇博士认为是不同架构的融合。英特尔现在的处理器已经不是传统意义上的CPU,还集成了GPU来同时满足用户对于标量和矢量运算的综合要求, CPU可以做逻辑运算,集成显卡可以完成高性能的媒体编码、解码、转码操作,也做一些推理和训练操作,VPU则可以用于AI加速。

据悉,后续英特尔的集成显卡也将采用和独立显卡一样的Xe架构,以保证可以通过类似的软件接口,让用户的人工智能网络模型在集成显卡、独立显卡甚至不同的CPU和人工智能加速芯片之间进行迁移,“编程易用性是我们追求的目标,对于用户来说非常关键。”张宇博士说到。

在不久之前的Six Five峰会上,英特尔还首次提出了网络基础架构处理器IPU的愿景。IPU是可编程的网络设备,能让数据中心的网络基础设施进行安全加速,帮助服务提供商真正实现完全虚拟化的存储和网络架构。

生产工艺方面,近期英特尔宣布了最新的工艺节点命名和路线图,在Intel 7和Intel 4节点下EU数量得到了极大提升。对此张宇博士认为,EU数量的增加会极大地提升AI计算盒的性能,以第11代Tiger Lake处理器为例,和第10代相比EU数量增加了三倍,整体媒体编解码能力和AI推理能力也会得到相应倍数的提升。

最后在封装上,英特尔利用先进封装技术把不同功能的小芯片通过同样的封装集成在一起,从原有系统集成芯片(SoC)设计,变成Chiplet设计,可以更方便构建异构架构,满足用户对于计算多样化的需求,为今后实现自主学习提供坚实的物质基础。

继续阅读
能源领域物联网边缘计算的挑战和机遇

物联网设备的增长使企业在数字化过程中能够且必须处理的数据量增加了数百万倍。为了提高处理效率,出现了一种非常强大的新计算模式:边缘计算,它通过在边缘处理机器学习和人工智能算法来补充集中式云基础架构的处理,即在数据来源和离用户或设备更近的节点处理机器学习和人工智能算法。

边缘计算:通过智能农业重塑农业部门

数字化转型时代的边缘计算正在许多行业中慢慢获得动力。预计到2025年将达到75%左右。边缘计算被包括农业在内的许多行业采用。这项技术正在帮助通过智能农业建设农业的未来。尽管云基础设施已经在发展农业领域发挥了重要作用,但边缘计算在速度和效率方面赢得了竞争。

火爆业界的边缘计算,到底是什么?

边缘计算正在改变全球数百万个设备处理和传输数据的方式。联网设备(IoT)的爆炸式增长以及需要实时计算能力的新应用,正持续推动着边缘计算系统发展。

物联网、5G和边缘计算的发展正在推动产业创新

尽管目前消费领域中连接的物联网设备数量超过工业领域,但工业物联网投资在跨行业解决方案以及满足特定行业需求的设备方面增长强劲。

物联网,以及5G和边缘计算的发展正在推动产业创新

尽管目前消费领域中的物联网设备数量超过工业领域,但工业物联网投资在跨行业解决方案,以及满足特定行业需求的设备方面增长强劲。