一种新颖的深度学习加速器。专用单元定义了一个SRAM,该单元可以处理矩阵乘法,量化,存储以及推理处理器所需的其他工作。
在Spice仿真中,当使用8位整数数学识别手写数字时,该设计可提供100兆次操作/秒/瓦(TOPS / W)。它的计算密度可以击败Google的TPU一个数量级。
该设计是使用内存中计算方法的加速器产品线中最新的一种。设计使用40纳米NOR闪存单元的深度学习处理器,其目标是为监视摄像机等设备使用低功耗芯片。
设计时使用了很少的vwin 电路,因此可以扩展到精细的工艺节点。它可能成为低功耗处理器中引擎(从边缘到云)的引擎。
独特的方式操纵SRAM单元以处理深度学习任务
这个设计使用户可以为从权重到神经网络层甚至单个神经元的所有内容创建自定义参数。这种灵活性可以使将来设计用于训练处理器的设计成为可能。但是尚无用于对该设计进行编程的软件堆栈,可能会在以后解决或留给将来的客户使用。
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表德赢Vwin官网
网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。
举报投诉
-
AI
+关注
关注
87文章
30728浏览量
268871 -
SPICE
+关注
关注
6文章
182浏览量
42563
发布评论请先 登录
相关推荐
NPU在深度学习中的应用
随着人工智能技术的飞速发展,深度学习作为其核心驱动力之一,已经在众多领域展现出了巨大的潜力和价值。NPU(Neural Processing Unit,神经网络处理单元)是专门为
pcie在深度学习中的应用
深度学习模型通常需要大量的数据和强大的计算能力来训练。传统的CPU计算资源有限,难以满足深度学习的需求。因此,GPU(图形处理
使用LSTM神经网络处理自然语言处理任务
自然语言处理(NLP)是人工智能领域的一个重要分支,它旨在使计算机能够理解、解释和生成人类语言。随着深度学习技术的发展,特别是循环神经网络(RNN)及其变体——长短期记忆(LSTM)网络的出现
GPU深度学习应用案例
能力,可以显著提高图像识别模型的训练速度和准确性。例如,在人脸识别、自动驾驶等领域,GPU被广泛应用于加速深度学习模型的训练和推理过程。 二、自然语言处理 自然语言处理(NLP)是
FPGA做深度学习能走多远?
。FPGA的优势就是可编程可配置,逻辑资源多,功耗低,而且赛灵思等都在极力推广。不知道用FPGA做深度学习未来会怎样发展,能走多远,你怎么看。
A:FPGA 在深度学习领域具有
发表于 09-27 20:53
深度学习中反卷积的原理和应用
像分割、图像重建和生成对抗网络(GANs)等,反卷积展现出了其独特的优势和广泛的应用前景。本文将详细探讨深度学习中的反卷积技术,包括其定义、原理、实现方式、应用场景以及与其他上采样方法
深度学习中的时间序列分类方法
时间序列分类(Time Series Classification, TSC)是机器学习和深度学习领域的重要任务之一,广泛应用于人体活动识别、系统监测、金融预测、医疗诊断等多个领域。随
深度学习在视觉检测中的应用
深度学习是机器学习领域中的一个重要分支,其核心在于通过构建具有多层次的神经网络模型,使计算机能够从大量数据中自动学习并提取特征,进而实现对复杂任务
TensorFlow与PyTorch深度学习框架的比较与选择
学习框架,它们各自拥有独特的特点和优势。本文将从背景介绍、核心特性、操作步骤、性能对比以及选择指南等方面对TensorFlow和PyTorch进行详细比较,以帮助读者了解这两个框架的优缺点,并选择最适合自己需求的框架。
深度学习与传统机器学习的对比
在人工智能的浪潮中,机器学习和深度学习无疑是两大核心驱动力。它们各自以其独特的方式推动着技术的进步,为众多领域带来了革命性的变化。然而,尽管
评论