本篇文章2893字,读完约7分钟
半个多世纪前,人工智能这个词首次出现在人类历史上。近年来,在深度学习的推动下,人工智能的浪潮进入了一个新时代,人工智能芯片遍地开花,创业公司如雨后春笋般涌现。然而,人工智能芯片仍然由带gpu的NVIDIA主导,在图形处理方面具有绝对优势,其市场份额已经达到一半以上。英特尔、谷歌、亚马逊和其他巨头也在迎头赶上,但河流和湖泊是危险的。在人工智能芯片的宝地还不明朗之前,没有人知道会发生什么。
什么是人工智能芯片?
一般来说,人工智能芯片被称为人工智能加速器或计算卡,是人工智能应用中专门用于加速大量计算任务的模块(其他非计算任务仍由cpu负责)。人工智能的三个关键基本要素是数据、算法和计算能力。传统的cpu一般不适合执行人工智能算法。主要原因是其计算指令遵循串行执行模式,未能充分发挥芯片的潜力。相反,gpu具有高并行结构,在处理图形数据和复杂算法方面比cpu具有更高的效率。事实上,这个原因很简单,cpu负责逻辑推理,gpu负责处理图形数据,gpu有大量的逻辑运算单元进行数据处理,并且可以并行处理密集的数据。最近提议的npu和谷歌的tpu都是整合数据和增强计算能力的手段。在cpu时代,NVIDIA的出现是因为图形处理的性能要求更高。在人工智能的下一个时代和大数据驱动的时代,谁将抢占新一代处理器的计算能力高峰,成为主宰江河湖海的下一个国王?
2.下一个风口是通用的
目前,gpu在训练方面已经发展到了成熟阶段。谷歌、脸书、微软、推特和百度等公司都在使用图形处理器来分析图像、视频和音频文件,以改善搜索和图像标记等应用功能。然而,英业达也有很大的问题。深度学习算法分为两部分:训练和推理。gpu平台在算法训练方面非常有效。然而,当处理推理中的单个输入时,并行计算的优势不能完全发挥出来。
因此,一些企业将注意力转向特殊处理芯片,这可以分为定制的asic和半定制的fpga。fpga具有较低的初始启动成本,可以在以后重新编程,但这种优势是以较高的总成本、功耗和性能牺牲为代价的;Asic运行速度比fpga快,但设计和制造周期长,适应性差。目前,边缘计算和嵌入式应用广泛应用于市场。许多初创企业通常从门槛较低的特殊芯片开始。
今天,随着日益复杂的人工智能技术和越来越多的智能神经网络体系结构,通用化是人工智能的未来。它最理想的方式是淡化一般智能芯片的人工干预,而智能芯片必须具有可编程性和结构动态可变性的特点。目前,实现通用人工智能面临两大挑战:一是通用性(算法和体系结构),二是复杂性。通用人工智能芯片的复杂性来源于任务的多样性以及对自学习和自适应的支持。因此,我们认为,一般人工智能芯片的发展方向不会是用某个芯片一夜之间解决问题,因为理论模型和算法还不完善。最有效的方法是通过结合各种芯片设计思想的灵活的异构系统来支持它,从而取长补短。一旦架构成熟,我们可以考虑设计soc来支持单芯片上的通用人工智能。
目前,在ai芯片领域,由于其在图形处理方面的出色表现,NVIDIA处于主导地位,占据了ai芯片全球市场份额的50%以上。此外,英特尔作为芯片巨头多年来,NVIDIA一直保持着巨大的投资,迅速提高了gpu的核心性能,增加了新的功能,并保持了其在人工智能培训市场的主导地位。
3.挑战英伟达
如果云训练芯片是英伟达唯一的一个,那么云推理芯片就是百家争鸣。与训练芯片相比,推理芯片考虑了更全面的因素:单位功耗的计算能力、时间延迟、成本等。在人工智能开发的早期阶段,推理也是由gpu加速的。目前,英伟达仍处于竞争的领先地位。然而,由于应用场景的特殊性,基于特定神经网络算法的优化将带来更高的效率,fpga/asic的性能可能会更加突出。除了NVIDIA、谷歌、英特尔和Xilinx等传统芯片制造商之外,越来越多的初创公司也加入了竞争,其中以色列芯片公司哈瓦那实验室(habana labs)脱颖而出。凭借NVIDIA在图形处理和计算能力方面的绝对优势,英特尔和谷歌甚至不被视为人工智能芯片领域的竞争对手,而英特尔专注于cpu,谷歌专注于人工智能登陆,这两者都不会影响NVIDIA超过一半的市场份额。英伟达提到,正是一些新兴芯片公司将影响他们在人工智能领域的未来市场份额,而哈瓦那就是其中之一。
这家芯片公司成立于2016年。去年9月,哈瓦那推出了一款名为goya的人工智能推理芯片,拥有众多客户。去年11月,哈瓦那完成了价值7500万美元的B系列融资。去年9月,哈瓦那公司推出的goya人工智能芯片着实吸引了眼球:在resnet-50上,它的处理性能是NVIDIA tesla t4的四倍,能耗比是后者的两倍,仅1.01毫秒的处理延迟就让人感受到了asic的强大功能。
4.哈瓦那从头开始的建筑优势
为什么哈瓦那的芯片具有更强的机器学习计算能力和更低的功耗?答案在于建筑。哈瓦那首席商务官eitan medina表示,cpu和gpu的架构旨在解决与深度学习完全不同的任务,cpu面向通用计算,gpu面向图形处理。在人工智能中,gpu的成功几乎是偶然的,因为它具有更高的并行性。然而,如果你从零开始,观察神经网络的特性,并投入足够的精力,你可以得到一个更好的架构。这就是哈瓦那正在做的。
人工智能处理器的性能包括两点,计算和延时。Eitan medina认为,最初用于通用计算的gpu和cpu在适用于人工智能计算时,在架构上存在固有缺陷。因此,在性能方面,为人工智能需求设计的特殊芯片架构具有优势。
哈瓦那自然会考虑到这一点。据eitan medina称,该公司的工程师开始从最早和最基本的层面设计芯片架构,专门针对人工智能的要求。其团队成员主要来自处理器、dsp、系统设计和网络设计领域的世界知名企业精英,能够支持哈瓦那从软件到硬件的研发需求。在谈到处理器架构时,哈瓦那中国区总经理余表示,两块处理板的性能提升来自架构,而非流程。目前,哈瓦那在R&D的投资约有60%用于软件开发。在哈瓦那开始制造人工智能芯片之前,它实际上是一家软件公司,所以他们知道软件工程师的想法,知道在哪里努力。
正如计算机科学家兰德·艾伦·K曾经说过的那样:那些对软件真正认真的人应该自己制造硬件。哈瓦那是由一家软件公司追溯到硬件,这使它能够更好地整合硬件资源。目前,哈瓦那发布的goya和gaudi板均由TSMC使用16纳米技术制造。
支持rdma是人工智能训练芯片的下一个发展方向,也是高迪的突破之一。高迪走得更远,集成了融合以太网上的rdma(ROCE v2)功能,因此ai系统可以使用标准以太网扩展到任何规模。高迪集成了10个100gbe带宽的roce rdma以太网端口。这意味着哈瓦那用户可以扩展传统的以太网环境。并行处理就是在训练过程中将任务分解到每个处理器中,然后通过高速网络将运算结果连接在一起。哈瓦那的芯片可以通过以太网链路实现分层树形结构,并达到近乎完美的吞吐效率。
哈瓦那表示,他的愿景是成为人工智能芯片领域的领导者。然而,在人工智能的总体趋势未知之前,一切皆有可能。让我们拭目以待。
标题:在巨头阴影下 AI芯片初创企业如何突围?
地址:http://www.gshxhs.com/gmwxw/5223.html