`本帖最后由 jackeyt 于 2020-7-27 22:17 编辑
0、背景
自从深度学习火起来之后,Nvidia GPU大卖。因为可以做神经网络的训练(Training),搭配CUDA享用,不亦乐乎。但不是所有设备上都可以装GPU的。GPU耗电多,产热多,想装在
手机、智能摄像头这种地方还是差了点。好在神经网络也不是要一直训练的。神经网络真的要用的时候只用它的推理(Inference)部分。推理时不需要更新权重(update weights),只出结果就好了。所以码农们在开发软件时把神经网络训练好了,封装到软件里拿出来卖就是了。
在这种背景下,各大公司纷纷推出了不同的神经网络加速器(Neural Network Accelerator),意在在比较低的运行功率下,能加速神经网络的推理运算,达到“多快好省”的目的。目前一些比较有代表性的产品有:谷歌的边缘张量处理器(Google Edge TPU),开头提到的英特尔NCS2,英伟达的Jetson系列,等等。 笔者有幸最近在嵌入式AI端经常有玩相关的开发板及加棒器,如微芯微的AI加速棒、Google的TPU加速棒、地平线的X3(5Tops算力)等,下文还有这几家方案的对比。
1、简单开箱
打开快递盒子就是包材、说明书、NCS2计算棒。非常简明,如下图所示:
2、与瑞芯微RK1808AI计算棒简单对比
适逢笔者手上还有瑞芯微的RK1808S——AI加速棒,将两者放入进行对比,岂不美哉?
NCS2(Neural Compute S
tick 2)顾名思义,是用来计算神经网络的一个加速棒,而且是第二代。它其实外形像一个U盘一样。通体英特尔蓝。
基本造型都是:混身蓝色的U盘加上两侧布满的散热孔:
3、简单介绍
在北京举办的首届AI开发者大会上,Intel正式推出了身材依然只有U盘大小的第二代神经计算棒(NeuralComputeStick2/NCS2),可让开发者更智能、更高效地开发和部署深度神经网络(DNN)应用,满足新一代智能设备的需求。
新一代计算棒仍然类似U盘造型,尺寸只有72.5×27×14毫米,通过USB3.0Type-A接口插入主机,兼容64位的Ubuntu16.04.3、CentOS7.4、Windows10操作系统。
NCS2内置了最新的IntelMovidiusMyriadXVPU视觉处理器,集成16个SHAVE计算核心、专用深度神经网络硬件加速器,可以极低的功耗执行高性能视觉和AI推理运算,支持TensorFlow、Caffe开发框架。按照Intel给出的数据,NCS2的性能比之前的Movidius计算棒有了极大的提升,其中图像分类性能高出约5倍,物体检测性能则高出约4倍。
`
|