Blogs

AI在边缘 - 我可以在资源受限的设备中运行神经网络吗?

斯蒂芬马丁2019年3月11日2评论

你好相关社区,

这是我在11月加入Stephane以来的第一次博客。他和我在一起嵌入世界,他让我仔细编写了一些重要趋势,因为他们与你们所有人有关。我希望在不久的将来发布别人,但嵌入式空间中最大的趋势是边缘人工智能(AI)周围的所有活动。 

这一趋势让我感到惊讶。在过去的18个月里,我一直在做很多关于AI的阅读,我所阅读的大部分都让我相信AI需要大量的处理能力和大规模数据库来训练这些 机器。这些机器使用了图形处理单元(GPU)或其他专用硬件来支持深度学习和神经网络。 

我在嵌入式世界中学到的是,AI在边缘是可能的, 甚至使用ARM Cortex-M4和M7微控制器。

考虑这篇文章是在边缘处的AI主题的介绍,更具体地说是资源受限的 edge.

首先,一些基本定义:

ai。 人工智能是所有与计算机有关的大型桶,可以根据数据分析学习,调整和做出决策。从根本上说,当我们今天谈论AI时,它不是关于SkyNet(终结者参考),而是关于可以使用已知的数据集进行培训的机器,以便对新数据进行预测。一些常见的例子是对象识别(是 对象猫?),文本识别,手写识别和语音识别。

机器学习。 AI世界的这个子集是指教学机器的过程,以准确解释数据,以便他们可以做出决定。

神经网络。 这些是计算设备用于分析,对传入数据进行分析,排序和分类的系统/模型。

推理。 目前资源约束的边缘设备仅限于使用推理来使用传入数据进行预测。机器教学/学习在桌面或云中完成。

为什么Ai在边缘?

我们今天看到的大部分,作为消费者,利用云。想想亚马逊Alexa或你的Google助手。这些设备侦听将唤醒它们的代码字。所有语音识别在该点之后依赖于与云服务器的网络连接。 

有许多原因将从云移动到边缘的处理。这些包括功耗,延迟和数据安全性。由于边缘设备变得更有能力,可以在本地处理越来越多的处理。使用AI功能也是如此。

资源受限的边缘是可能的?

从我在嵌入式世界中看到的东西,可以做基本 Cortex-M微控制器上的对象检测,文本和手写识别。以下是一些供应商,在嵌入式世界中展示了AI解决方案。 

  • STMicroelectronics展示了STM32Cube.ai,一种广泛使用的STM32Cubemx配置和代码生成工具的扩展包,在STM32 ARM Cortex-M的微控制器上启用AI。他们声称您可以使用此工具运行多个神经网络 single STM32 MCU.
  • ARM已经开发了ARM NN,允许您采取在Tensorflow,Caffe等中开发的模型,并在Cortex-M设备中运行高效的神经网络。
  • Amazon AWS提供GreenGrass,可以无缝扩展AWS到Edge设备,因此它们可以在本地上行动他们生成的数据,同时仍然使用云进行管理,分析和耐用存储。
  • Beableboard宣布Beaglebone®AI,专门为AI开发的新董事会。他们将以大约100美元提供此费用。注意:这不是微控制器,而是一种更强大的MPU - 由Ti C66x DSP核心和嵌入式 - Vision-Engres核心提供给德州仪器AM5729 SOC供电 德州仪器深度学习 机器学习OpenCL API。

我从哪里开始?

有关资源受限的边缘设备的良好介绍,请查看Jacob BeningoS的谈话 我们从嵌入式世界居住。 Jacob在边缘介绍AI的主题,然后在他的实验室中分享他的实验室以及数据的特定AI示例 这些例子的处理要求。


您对EDE的AI上的更多帖子感兴趣吗?

我们希望收到你的来信。这篇文章有用吗?您是否在该领域的专家上想要更多博客帖子?您是否有人经历过Edge设备开发AI,并希望与我们的社区分享您的经历?请使用下面的评论部分回复或 到达斯蒂芬.


[]
评论 smitjs.2019年8月17日

谢谢你。我的兴趣领域是图像识别,特别是动物物种。

请更多博客在本领域专题上的博客帖子。

此致

约翰斯密

[email protected]

[]
评论 Seanffbnn.2019年9月3日

您可能想尝试这种类型的神经网络:

//github.com/S6Regen/Fixed-Filter-Bank-Neural-Networks

每层的成本仅为O(nlog(n))。远低于传统人工神经网络的O(正方形)成本。  

 

要发布回复评论,请单击连接到每个注释的“回复”按钮。发布新的评论(不是回复评论),请在评论的顶部查看“写评论”选项卡。

注册将允许您参加所有相关网站的论坛,并为您提供所有PDF下载。

注册

我同意 使用条款隐私政策.

尝试我们偶尔但流行的时事通讯。非常容易取消订阅。
或登录