期刊文献+
共找到5篇文章
< 1 >
每页显示 20 50 100
鳍式场效应晶体管结合自热效应的电迁移分析 预览
1
作者 张骁竣 季昊 聂笔剑 《电子技术应用》 2019年第8期53-60,共8页
在先进工艺节点下,鳍式场效应晶体管(FinFET)工艺相对于平面技术提供了在功耗、性能与面积上的优势。但相对地,FinFET也会引起局部晶体管电流密度的骤增的问题,这也意味着信号线和电源地网络的金属电迁移可靠性会受到更大的冲击。随着Fi... 在先进工艺节点下,鳍式场效应晶体管(FinFET)工艺相对于平面技术提供了在功耗、性能与面积上的优势。但相对地,FinFET也会引起局部晶体管电流密度的骤增的问题,这也意味着信号线和电源地网络的金属电迁移可靠性会受到更大的冲击。随着FinFET的热分布对互联金属线的温度影响上升,电迁移失效概率上升的次级效应也由之产生。如今,热效应的影响已经成为了广大设计公司不得不考虑的因素之一,在生产商的引导之下,CadenceVoltus提供了针对热效应带来影响的精准、强大并且灵活的解决方案。基于此点对高平均翻转率的芯片进行热效应影响的检查与分析,并且对电源的结构规划和设计的物理实现进行改进。 展开更多
关键词 电迁移 自热 先进工艺节点 统计学的电迁移预算
在线阅读 下载PDF
智能芯片的评述和展望 预览
2
作者 韩栋 周聖元 +2 位作者 支天 陈云霁 陈天石 《计算机研究与发展》 EI CSCD 北大核心 2019年第1期7-22,共16页
近年来,人工智能技术在许多商业领域获得了广泛应用,并且随着世界各地的科研人员和科研公司的重视和投入,人工智能技术在传统语音识别、图像识别、搜索推荐引擎等领域证明了其不可取代的价值.但与此同时,人工智能技术的运算量也急剧扩增... 近年来,人工智能技术在许多商业领域获得了广泛应用,并且随着世界各地的科研人员和科研公司的重视和投入,人工智能技术在传统语音识别、图像识别、搜索推荐引擎等领域证明了其不可取代的价值.但与此同时,人工智能技术的运算量也急剧扩增,给硬件设备的算力提出了巨大的挑战.从人工智能的基础算法以及其应用算法着手,描述了其运算方式及其运算特性.然后,介绍了近期人工智能芯片的发展方向,对目前智能芯片的主要架构进行了介绍和分析.而后,着重介绍了DianNao系列处理器的研究成果.该系列的处理器为智能芯片领域最新最先进的研究成果,其结构和设计分别面向不同的技术特征而提出,包括深度学习算法、大规模的深度学习算法、机器学习算法、用于处理二维图像的深度学习算法以及稀疏深度学习算法等.此外,还提出并设计了完备且高效的Cambricon指令集结构.最后,对人工神经网络技术的发展方向从多个角度进行了分析,包括网络结构、运算特性和硬件器件等,并基于此对未来工作可能的发展方向进行了预估和展望. 展开更多
关键词 人工智能 加速器 FPGA ASIC 权重量化 稀疏剪枝
在线阅读 下载PDF
面向多核处理器的机器学习推理框架 预览
3
作者 张潇 支天 《计算机研究与发展》 EI CSCD 北大核心 2019年第9期1977-1987,共11页
近年来,深度神经网络被广泛应用于各个领域并取得了极大的成功.由于神经网络模型的尺寸和计算量的不断增加,为了能够高效迅速地完成神经网络的计算,包括GPU和专用加速器在内的很多新型硬件处理器被用于深度学习的计算.尽管如此,通用处... 近年来,深度神经网络被广泛应用于各个领域并取得了极大的成功.由于神经网络模型的尺寸和计算量的不断增加,为了能够高效迅速地完成神经网络的计算,包括GPU和专用加速器在内的很多新型硬件处理器被用于深度学习的计算.尽管如此,通用处理器作为目前最为常见和易于获得的计算平台,探究如何高效地在其上运行神经网络算法同样具有重要意义.多核处理器在训练阶段可以采用数据并行的方式来提高数据吞吐量,加快训练速度.然而在推理阶段,相比吞吐量场景,端到端的时延往往更加重要,因为这决定了处理器在某个场景下的可用性.传统的数据并行方案不能满足推理场景下对处理器小数据、低延迟的要求.因此,对于多核的处理器结构,需要在算子内部对计算进行拆分,才能够充分利用多核结构的硬件资源.考虑到处理器的计算特点,需要一种精细的方法来对计算图中的算子进行合理的拆分,才能真正有效地发挥出多核处理器的计算潜能.提出一种基于算子拆分的并行框架,可以用较小的开销实现处理器由单核向多核结构上的扩展,并且能够针对给定的网络和底层处理器特点给出一种高效的拆分方案.实验结果表明:该方法能有效降低各种网络在多核处理器上的端到端时延. 展开更多
关键词 深度学习框架 多核处理器 低延迟推理 算子拆分 循环神经网络
在线阅读 下载PDF
低面积低功耗的机器学习运算单元设计 预览
4
作者 周聖元 杜子东 +2 位作者 刘道福 支天 陈云霁 《高技术通讯》 CAS 北大核心 2019年第1期12-18,共7页
随着机器学习(ML)算法的日益流行,研究人员提出了很多专用于机器学习算法的加速器。然而,这些加速器会被其特定用途的狭窄范围所限制。另外,尽管芯片制造工艺有所提高,但是待处理问题规模的急剧增大依然加剧了这些机器学习加速器的低效... 随着机器学习(ML)算法的日益流行,研究人员提出了很多专用于机器学习算法的加速器。然而,这些加速器会被其特定用途的狭窄范围所限制。另外,尽管芯片制造工艺有所提高,但是待处理问题规模的急剧增大依然加剧了这些机器学习加速器的低效程度。针对这种现象,本文研究了4种流行的机器学习算法——k-近邻算法(k-NN),k-均值算法(k-Means),支持向量机(SVM)和逻辑回归(LR),并对这些算法中最为耗时的运算部分进行了深入分析,此外,还针对数据位宽对运算精度、硬件开销的影响进行了分析。根据以上分析,本文设计了一款可以支持多种机器学习算法的运算单元,该运算单元混合使用16位浮点数和32位浮点数的运算器,实现了低面积、低功耗的需求。实验结果表明,本文提出的运算单元可以在几乎不损失正确率的情况下,减少69.80%的总面积开销以及68.98%的总功耗开销。 展开更多
关键词 机器学习(ML) 运算单元 加速器 低面积 低功耗
在线阅读 下载PDF
稀疏神经网络加速器设计 预览
5
作者 周聖元 杜子东 陈云霁 《高技术通讯》 CAS 北大核心 2019年第3期222-231,共10页
针对日益增长的神经网络规模和不断变化的神经网络模型结构,提出了一款新型的稀疏神经网络加速器架构。该架构能够有效利用稀疏神经网络中的权值稀疏性和神经元稀疏性,进一步提升加速器处理神经网络模型时的运算速度。同时,该架构能够... 针对日益增长的神经网络规模和不断变化的神经网络模型结构,提出了一款新型的稀疏神经网络加速器架构。该架构能够有效利用稀疏神经网络中的权值稀疏性和神经元稀疏性,进一步提升加速器处理神经网络模型时的运算速度。同时,该架构能够支持逐元素乘法/加法等运算,从而进一步提高加速器的灵活性,高效支持并加速Resnet等新型的神经网络结构。实验结果显示,基于5个具有代表性神经网络模型,该架构相比于现有的先进的稀疏神经网络加速器有平均为2.57倍的加速比,同时针对Resnet-18和Resnet-50的BN层分别平均有4.40倍和4.57倍的加速比。 展开更多
关键词 神经网络 稀疏神经网络 加速器
在线阅读 下载PDF
上一页 1 下一页 到第
使用帮助 返回顶部 意见反馈