比起GPU和GPP,FPGA在符合深度自学的硬件市场需求上获取了具备吸引力的替代方案。凭借流水线并行计算的能力和高效的能耗,FPGA将在一般的深度自学应用于中展现出GPU和GPP所没的独有优势。
同时,算法设计工具日益成熟期,如今将FPGA构建到常用的深度自学框架已沦为有可能。未来,FPGA将有效地适应环境深度自学的发展趋势,从架构上保证涉及应用于和研究需要权利构建。 最近几年数据量和可采访性的很快快速增长,使得人工智能的算法设计理念再次发生了改变。
人工创建算法的作法被计算机从大量数据中自动习得可人组系统的能力所代替,使得计算机视觉、语音辨识、自然语言处置等关键领域都经常出现了重大突破。深度自学是这些领域中所常用于的技术,也被业界深感注目。然而,深度自学模型必须十分大量的数据和计算能力,只有更佳的硬件加速条件,才能符合现有数据和模型规模之后不断扩大的市场需求。
现有的解决方案用于图形处理单元(GPU)集群作为标准化计算出来图形处理单元(GPGPU),但现场可编程门阵列(FPGA)获取了另一个有一点探究的解决方案。日益风行的FPGA设计工具使其对深度自学领域常常用于的上层软件兼容性更加强劲,使得FPGA更容易为模型搭起和部署者所用。FPGA架构灵活性,使得研究者需要在诸如GPU的相同架构之外展开模型优化探究。
同时,FPGA在单位能耗下性能更加强劲,这对大规模服务器部署或资源受限的嵌入式应用的研究而言至关重要。本文从硬件加速的视角实地考察深度自学与FPGA,认为有哪些趋势和创意使得这些技术互相给定,并唤起对FPGA如何协助深度自学领域发展的探究。 1.概述 机器学习对日常生活影响深远影响。
无论是在网站上页面个性化引荐内容、在智能手机上用于语音交流,或利用面部辨识技术来照片,都中用了某种形式的人工智能技术。这股人工智能的新潮流也预示着算法设计的理念改变。过去基于数据的机器学习大多是利用明确领域的专业知识来人工地塑造成所要自学的特征,计算机从大量示例数据中习得人组特征提取系统的能力,则使得计算机视觉、语音辨识和自然语言处置等关键领域构建了根本性的性能突破。对这些数据驱动技术的研究被称作深度自学,如今于是以受到技术界两个最重要群体的注目:一是期望用于并训练这些模型、从而构建近于高性能横跨任务计算出来的研究者,二是期望为现实世界中的新应用于来部署这些模型的应用于科学家。
然而,他们都面对着一个容许条件,即硬件加速能力仍须要强化,才有可能符合不断扩大现有数据和算法规模的市场需求。 对于深度自学来说,目前硬件加速主要靠用于图形处理单元(GPU)集群作为标准化计算出来图形处理单元(GPGPU)。
比起传统的标准化处理器(GPP),GPU的核心计算能力要多出几个数量级,也更容易展开并行计算。特别是在是NVIDIACUDA,作为最主流的GPGPU撰写平台,各个主要的深度自学工具皆用其来展开GPU加快。最近,开放型并行程序设计标准OpenCL作为异构硬件编程的替代性工具倍受注目,而对这些工具的热情也在加剧。虽然在深度自学领域内,OpenCL取得的反对相比CUDA还略逊一筹,但OpenCL有两项独有的性能。
首先,OpenCL对开发者开源、免费,不同于CUDA单一供应商的作法。其次,OpenCL反对一系列硬件,还包括GPU、GPP、现场可编程门阵列(FPGA)和数字信号处理器(DSP)。
本文来源:老金沙9170登录入口-www.jlsdfxy.com