对话英特尔物联网专家:自主学习是边缘 AI 发展的最高阶段

来源:ob欧宝官网

阅读 37
发布时间 2021-10-23 12:20:47

  智东西 8 月 4 日消息,近日,英特尔在 AI 计算盒主题分享会上与众多合作伙伴一起,分享了 AI 计算盒一系列最新落地成果。

  同时,英特尔公司高级首席工程师、物联网事业部中国区首席技术官张宇博士,以及英特尔物联网事业部技术销售经理刘波等英特尔高管和技术专家,围绕 AI 计算盒的软硬件技术优势进行剖析,并分享了他们对边缘 AI 技术发展趋势的看法。

  人工智能的发展离不开计算、通讯、存储技术。 张宇谈道。同时他认为,边缘 AI 的发展分为三个阶段,目前我们还处于第一阶段,也就是边缘推理阶段,而自主学习是最终目标。

  会后,张宇、刘波等英特尔高管和技术专家还与智东西等媒体进行了深入交流,在探讨英特尔 AI 计算盒过去一年创新应用的的同时,还分享了英特尔在边缘 AI 计算赛道的布局和规划。

  简单来说,该方案融合了第 11 代英特尔酷睿处理器、OpenVINO 工具套件、英特尔 Media SDK 等软硬件产品和技术,通过英特尔成熟的平台级能力,帮助各层面合作伙伴与最终用户加速边缘 AI 应用的开发和工程化落地。

  而 AI 计算盒的诞生也与边缘人工智能的发展息息相关,尤其是细分的智能视频分析市场。相关行业预测数据,到 2022 年,智能视频分析市场的规模或将超过 1800 亿人民币,复合增长率为 34%。

  同时,智能视频分析解决方案也将在智慧城市、智能交通、智能制造、智慧零售等 10 余个领域得到广泛运用。

  为了顺应智能视频分析市场强劲的增长态势,为行业提供发展所需的强大算力,英特尔在 2020 年就正式推出了 AI 计算盒参考设计,在基础算力、AI 加速和软件栈配置等方面都有着不少优势。

  AI 加速方面,通过集成英特尔锐炬 Xe 显卡、英特尔 GNA 2.0 神经加速器,以及面向深度学习优化的 VNNI 指令集等,AI 计算盒可获得高达 8 倍的 AI 推理加速能力。

  在软件栈配置上,英特尔 Media SDK 通过统一的 API 访问接口、优化的媒体库访问,能够让 AI 计算盒提升视频播放、编解码以及格式转换效率,获得实时 4K 视频通信所需的 60 FPS HEVC 视频编解码能力。

  同时,AI 计算盒所集成的英特尔 OpenVINO 工具套件,能够有效支持从边缘到云端的深度学习推理。

  基于 AI 计算盒的一系列技术创新和设计,英特尔已和各行业合作伙伴共同构建了面向各垂直领域的端到端解决方案,覆盖智能支付、智能停车、智慧社区、智慧楼宇、智能 VDD、智能会议等数十个场景。

  尤其是面向智慧城市和智慧生活场景,英特尔联合智芯原动、趋视科技、开域集团、中科创达、小钴科技等公司打造的 AIoT 解决方案,已实现全面落地。

  分享会现场,英特尔公司高级首席工程师、物联网事业部中国区首席技术官张宇博士还围绕 AI 浪潮的发展,谈了他对边缘 AI 发展趋势的看法和未来展望。

  算力方面,当 1994 年全球超级五百强算力榜单第一次公布时,排名第一的超级计算机的每秒浮点运算峰值速度达到了 13000/ 次。而在今年的榜单上,这个数字已经达到了 53 亿亿次。

  在摩尔定律的推动下,算力得到了极大提升,能够帮助我们在更短时间内完成网络模型的训练,或处理更加复杂的 AI 网络系统。 在张宇看来,这可以拉近 AI 技术与商业诉求的距离,推动 AI 技术落地。

  数据方面, 现在 AI 是离不开数据的,不然得不到好的结构。 张宇提到,以 Lecunet 为例,普通的开放数据池中包含了超过 1400 万兆经过标注的图片,利用这些图片,算法开发人员可以进行图像分类的识别,而这些图片数据增加的背后,实际上是基于通讯技术与存储技术的不断提升。

  他提到,AI 技术已经在越来越多的边缘计算领域得到了普及,比如工业互联网领域会用 AI 技术做产品缺陷检测。不过,目前大多数的运作模式是,利用数据中心的算力和大量 AI 数据来训练网络模型,再把模型推送到边缘端进行推理。

  但张宇认为,边缘设备的算力和存储都是有限的,让边缘设备做边缘推理尽管合理,但也有一定的弊端,那就是模型的更新会受到限制。 因为模型的更新是由数据中心控制的,不可能随时随地为新进的数据更新。 他说。

  同时在一些使用场景对模型更新频率的要求较高,需要对模型不断进行动态训练和更新。因此在今后的 AI 发展过程中,边缘训练是必然的发展趋势。

  他解释,虽然现在可以用极大的算力和大量数据训练一个网络系统,但网络模型的结构需要人提前设计,在这个过程中,人的许多意识已经嵌入到模型中,陷入到模型的使用场景和范围。

  展望五年、十年以后的边缘计算和 AI 物联网的发展,一定会有自主的发展。 张宇描绘了这幅画面——系统会自主化决定应该选择模型、策略、算法,会自动收集数据训练模型,把训练的结果用于实际系统。

  最终一定是自主化的过程,也就是业界说的 OpenPose 技术将在业界普及。 张宇说,这一阶段也是边缘 AI 发展的最高阶段。

  正如张宇所说,人工智能的发展离不开计算、通讯技术、存储的不断提升。而英特尔作为一家领先的半导体公司,其产品也恰恰涵盖了通讯、计算、存储行业。

  在计算方面,英特尔开发的 CPU、GPU、FPGA 不同的产品组合,能满足用户对计算不同的需求。

  在 5G 基础设施方面,英特尔推出了一系列软硬件产品,包括基于英特尔架构并用于 5G 无线基站的 SO 芯片,可以实现从通讯的核心网到网络边缘的复用,极大降低开发门槛,加速软件开发速度。

  总之,英特尔所提供的是一个端到端的人工智能解决方案,通过将 5G、AI、智能边缘三者的融合,将边缘计算、人工智能推向新的发展方向,这是我们大的思路和大的战略。 张宇说。

  在会后与智东西等少数媒体的交流中,英特尔物联网事业部技术销售经理刘波也向大家分享了英特尔 AI 计算盒在过去一年的软硬件创新。

  他谈道,在过去一年多的时间里,英特尔 AI 计算盒经历了几方面的创新。例如,芯片平台从上一代的 Whiskey Lake 更新到了 Tiger Lake,其中 Tiger Lake 与上一代相比性能有了较大提升。

  同时在算法生态方面,今年英特尔在零售、工业、智慧社区算法合作伙伴的基础上,又引入了其他几个算法领域的合作伙伴,从以往 打点 的形式变成 打面 ,以此更好地服务更多客户。

  另一方面,基于张宇在演讲中谈到的 自主边缘计算是边缘 AI 发展的最高阶段 ,英特尔目前在这方面有何布局?

  算力方面,AI 到了自主学习后对算力的要求会更高,同时也对数据处理的方法提出新挑战。 张宇解释,尤其在边缘 AI 方面,如何做数据标注等都是有别于数据中心的学习特点。

  在这个方向上,英特尔一直在做相关工作,针对数据标注不断地扩充英特尔软件方面的能力,这些能力也将体现在以后的版本中。

  与此同时,英特尔提供了 SPU 算力战略,包括 CPU、GPU、FPGA、AI 加速芯片 VPU 等产品组合,芯片不同的架构也在不断迭代,还区别于不同的芯片工艺。

  昨天,我们发布了今后几年英特尔非常清晰的工艺路线图,我们会更多地利用最新技术帮助客户提供更新一代的产品,这些产品不仅可以满足用户对算力的要求,同时也是异构的。 张宇谈道。

  英特尔可以通过封装技术将不同模块整合在一起,满足异构的计算平台,满足用户对算力和功能的多样化需求。 这些都是为我们今后实现自主学习提供坚实的物质基础。 他说。

  第 11 代的 Tiger Lake 处理器和第 10 代相比,EU 数量增加了三倍,整体媒体编解码能力和 AI 推理能力得到了相应倍数的提升。 张宇提到。

  在后续的产品里,AI 计算盒的集成显卡都将采用 Xe 架构,与独立显卡架构一致。 这样就保证我们可以通过类似的软件接口,能让用户的 AI 网络模型在集成显卡、独立显卡,甚至在不同 CPU 和 AI 加速芯片之间进行迁移,带来极大的编程易用性。 他说。

  随着 5G、物联网、云计算、边缘计算等技术的发展,给我国新基建带来了重要的变革力量。其中,AI 技术作为其中的核心技术引擎,也在持续推动多种技术向各个行业赛道的融合发展。

  英特尔作为一家全球科技巨头企业,其领先的软硬件技术也为各行各业的 AI 生态建设提供了不可小觑的力量。未来,我们也期待英特尔能够和更多合作伙伴一起,为共同推动边缘 AI 应用向更多领域落地,实现行业智能化成熟发展。

上一篇:2021第五届全球物联网黑科技大赛参赛项目云展系列( 下一篇:“芯片一哥”加仓芯原股份-U 业绩拐点显现物联网贡献