专题

Ai芯片面对的机遇和挑战

发布时间:2019-11-21 12:02:43  来源:  发布人: 阅读量:

最近只要能和人工智能芯片研发技术相关的突破都会令人异常兴奋。任何企业只要打上了人工智能芯片研发成功的标签都会成为万众瞩目的焦点。

人工智能可以说是目前最火爆的行业之一,人工智能英文为Artificial Intelligence,英文缩写为AI。它是对人类意识和思维方式的模拟甚至可以超越。是将人类思维方式应用到现实产品系统领域而形成的实用性业务。如今已经不止停留在理论与幻想上,随着大数据和云计算的发展,新型产业科技即将和人工智结合形成一股新的产业风暴。


Ai芯片面对的机遇和挑战



看看这几年智能手机的发展,再试想以后智能机器人的应用,脑海中随时可以呈现出科幻大片中未来的景象。智能机器人、图像识别,语音识别,智能传感,无人驾驶等等只要你能想象的智能产业几乎都可以关联到人工智能技术上。所以人工智能将是未来技术发展的趋势,也是一门新的科学技术。

当然人工智能的未来不是一蹴而就,也需要脚踏实地的发展,它也需要相关产业应用发展和带动,比如在应用里面用于专门处理人工智能中的大量计算任务的模块也就是AI芯片,它是人工智能的基础细胞。AI芯片的发展是人工智能产业链发展的基石,AI芯片起步早意味着在人工智能市场中起点就就比别人高。更能推进整个行业的发展。

AI芯片也被称为人工智能加速器或计算卡,是专门用于处理人工智能应用中的大量计算任务的模块(其他非计算任务仍由传统芯片CPU负责),主要分为 GPU 、FPGA 、ASIC 。比如苹果公司研发的A11神经仿生芯片,其中就内置了神经网络引擎,其实就是AI芯片,来实现AI计算在终端中运行。

AI芯片相比较传统芯片因为计算架构不同,数据处理速度更快,能效更高,功耗更低。其次AI芯片的强大计算使得大数据计算在终端中就能运行。比如对传感图片的识别,传统芯片可能需要几分钟,那么现在用AI芯片几秒钟处理就可以。再比如自动驾驶需要识别大量的图像数据,需要在最短的时间内计算出结果并作出相应的判断,那么时延将是一个绕不开的致命瓶颈,这时传统芯片就无能为力,必须依靠AI芯片。

AI 芯片概述

当前对人工智能芯片的定义并没有一个公认的标准。比较通用的看法是面向 AI应用的芯片都可以称为AI芯片,按设计思路主要分为三大类:专用于机器学习尤其是深度神经网络算法的训练和推理用加速芯片;受生物脑启发设计的类脑仿生芯片;可高效计算各类人工智能算法的通用AI芯片。

为了支持多样的 AI计算任务和性能要求,理想的AI芯片需要具备高度并行的处理能力,能够支持各种数据长度的按位、固定和浮点计算;比当前大几个数量级的存储器带宽,用于存储海量数据;低内存延迟及新颖的架构,以实现计算元件和内存之间灵活而丰富的连接。而且所有这些都需要在极低的功耗和极高的能量效率下完成。


Ai芯片面对的机遇和挑战



在当前人工智能各领域的算法和应用还处在高速发展和快速迭代的阶段,考虑到芯片的研发成本和生产周期,针对特定应用、算法或场景的定制化设计很难适应变化。针对特定领域而不针对特定应用的设计,将是 AI芯片设计的一个指导原则,具有可重构能力的AI芯片可以在更多应用中广泛使用,并且可以通过重新配置适应新的AI算法、架构和任务。

 AI 芯片未来趋势

在 AI芯片领域,目前还没有出现一款 CPU类的通用AI芯片,人工智能想要像移动支付那样深入人心,改变社会,可能还差一个“杀手”级别的应用。无论是图像识别、语音识别、机器翻译、安防监控、交通规划、自动驾驶、智能陪伴、智慧物联网等,AI涵盖了人们生产生活的方方面面,然而距离 AI应用落地和大规模商业化还有很长的路要走。而对于芯片从业者来讲,当务之急是研究芯片架构问题。软件是实现智能的核心,芯片是支撑智能的基础。当前 AI芯片发展,短期内以异构计算为主来加速各类应用算法的落地;中期要发展自重构、自学习、自适应的芯片来支持算法的演进和类人的自然智能;长期则朝通用AI芯片的方向发展。

通用AI计算

AI的通用性实际包括2个层级:第一个层级是可以处理任意问题;第二个层级是同一时间处理任意问题。第一层级的目标是让AI的算法可以通过不同的设计、数据和训练方法来处理不同的问题。例如,利用现在流行的深度学习方法训练AI下棋、图像识别、语音识别、行为识别、运动导航等。但是,不同的任务使用不同的数据集来独立训练,模型一旦训练完成,只适用于这种任务,而不能用于处理其他任务。所以,可以说这种 AI的算法和训练方法是通用的,而它训练出来用于执行某个任务的模型是不通用的。第二层级的目标是让训练出来的模型可以同时处理多种任务,就像人一样可以既会下棋,又会翻译,还会驾驶汽车和做饭。这个目标更加困难,目前还没有哪一个算法可以如此全能。

通用AI芯片

通用 AI 芯片就是能够支持和加速通用 AI 计算的芯片。关于通用AI的研究希望通过一个通用的数学模型,能够最大限度概括智能的本质。目前比较主流的看法是系统能够具有通用效用最大化能力:即系统拥有通用归纳能力,能够逼近任意可逼近的模式,并能利用所识别到的模式取得一个效用函数的最大化效益。这是很学术化的语言,如果通俗地说,就是让系统通过学习和训练,能够准确高效地处理任意智能主体能够处理的任务。通用 AI的难点主要有 2个:通用性,包括算法和架构;实现复杂程度。当前,摩尔定律的逐渐失效和冯·诺伊曼架构的瓶颈这2个巨大的技术挑战也是通用AI芯片需要考虑的问题。想要解决这 2个问题仅通过芯片的设计理念和架构创新是行不通的,还需要取决于更先进的制程工艺、新型半导体材料、新型存储器件以及人类对于自身大脑更进一步的认知。

AI 芯片面临的机遇与挑战

目前全球人工智能产业还处在高速变化发展中,广泛的行业分布为人工智能的应用提供了广阔的市场前景,快速迭代的算法推动人工智能技术快速走向商用,AI芯片是算法实现的硬件基础,也是未来人工智能时代的战略制高点,但由于目前的 AI算法往往都各具优劣,只有给它们设定一个合适的场景才能最好地发挥其作用,因此,确定应用领域就成为发展AI芯片的重要前提。但遗憾的是,当前尚不存在适应多种应用的通用算法,人工智能的“杀手”级应用还未出现,已经存在的一些应用对于消费者的日常生活来说也非刚需,因此哪家芯片公司能够抓住市场痛点,最先实现应用落地,就可以在人工智能芯片的赛道上取得较大优势。

架构创新是 AI芯片面临的一个不可回避的课题。需要回答一个重要问题:是否会出现像通用CPU那样独立存在的 AI处理器?如果存在的话,它的架构是怎样的?如果不存在,目前以满足特定应用为主要目标的AI芯片就一定只能以 IP核的方式存在,最终被各种各样的 SoC(system-on-a-chip)所集成。这无疑带来了新的问题,芯片的体积和功耗是必须要考虑的重要因素,传统芯片公司在 SoC的设计优化和工程实现上无疑比以算法起家的初创AI芯片公司更具经验。

从芯片发展的大趋势来看,现在还是 AI芯片的初级阶段。无论是科研还是产业应用都有巨大的创新空间。从确定算法、应用场景的 AI加速芯片向具备更高灵活性、适应性的通用智能芯片发展是技术发展的必然方向。未来 2 年之内 AI 芯片产业将持续火热,公司扎堆进入,但是到了2020年前后,则将会出现一批出局者,行业洗牌开始,最终的成功与否则将取决于各家公司技术路径的选择和产品落地的速度。


版权所有 © 科智网 备案号:京ICP备19044848号-1 文章如有侵权,请联系作者删除。网站内容仅供参考,不作买卖依据。QQ:1037495047