2023年初以来,由ChatGPT掀起AI领域技术革命,正加速AI应用方面落地,也成为业界关注和探讨的热点方向。而这一场生成式人工智能(AIGC)热潮催生了庞大的算力需求,而神经网络处理器(NPU)在大算力应用场景的应用优势正被业界广泛看好。
近日,据韩联社报道,韩国政府拟与AI芯片、云计算企业联合,组建团队研发高算力、低能耗的神经网络处理器(NPU)推理芯片,同时启动了“K-云计算”(韩国云计算)项目。该项目吸引了三星电子、SK海力士等芯片龙头以及部分AI芯片初创企业、云计算企业参会,其直接目的是与英伟达竞争,但避开英伟达主导的图形处理单元(GPU)市场。
目前,NPU这一赛道实际上也涌入了众多芯片企业,相关的竞品也很多,但大算力需求正给NPU带来更多的市场机会。可以说,在AI加速来临的时代,高算力、多样算力需求将推动AI芯片大爆发,NPU必然是代表之一。
NPU(Neural network Processing Unit),即神经网络处理器,可以在电路层模拟人类神经元和突触,并且用深度学习指令集直接处理大规模的神经元和突触,一条指令完成一组神经元的处理。相比于CPU和GPU的冯诺伊曼结构,NPU通过突触权重实现存储和计算一体化,从而提高运行效率。
实际上,AI芯片有多种类型,比如GPU、FPGA(现场可编程门阵列)和ASIC(专用集成电路)等。而NPU属于ASIC芯片的一种类型,因为其是为特定应用场景(如神经网络和深度学习)而设计的定制芯片。NPU专门用于处理神经网络、深度学习和机器学习等人工智能任务,其在AI和深度学习领域的应用广泛,如自动驾驶汽车、智能手机、智能家居设备、语音识别和自然语言处理等。而近年来涌现的TPU、NPU、VPU、BPU等令人眼花缭乱的芯片也均属ASIC。
不同于GPU和FPGA的灵活性,ASIC是定制化的,一经制造完成便不能更改,因此其开发成本高昂且周期长。但ASIC在性能和功耗上都要优于前两者,例如TPU比同时期的GPU平均提速15-30倍,能效比提升30-80倍。
另外,NPU的出现,是业界非常看好AI算法在解决现实问题比传统算法有更多可能性,能够突破传统算法的很多瓶颈,因此AI算法将在未来的成为主流的解决问题的算法,而这么大的算力缺口自然需要有专用的ASIC,因而NPU应运而生。不过,GPU在近几年专门针对AI算法加强了并行计算单元,因此除CPU外,GPU、NPU、FPGA等芯片作为AI算法的硬件加速器在不同的应用场景和深度学习算法中发挥着各自的优势。
随着摩尔定律放缓,通用处理器架构难以满足人工智能的密集型计算需求。因此,在这种趋势下,专用芯片成为面向特定需求提升算力和能效比的新思路。
其中,NPU是面向机器学习和人工智能领域的专用加速芯片。相比CPU、GPU等通用芯片,NPU在电路层模拟了人类神经元和突触,针对AI计算涉及的大量神经网络模型进行特殊优化,能够以更高的效率、更低的能耗处理人工神经网络、随机森林等机器学习算法和深度学习模型。
今年4月,三星半导体已成功量产第一代WarBoy NPU芯片,采用三星14nm制程工艺。据悉,WarBoy是一款专为人工智能设计的神经元网络芯片,速度是普通GPU的十倍。除了三星之外,苹果、OPPO等也在研发应用NPU,主要于面部识别、拍摄物体及环境识别、影像处理等,为消费者带来3D动画表情、人脸解锁、AI场景识别、无损实时RAW计算等一系列新体验。
目前,大部分运用训练AI大型语言模型的硬件设备都来自英伟达,例如英伟达A100加速显卡,能够提供高达19.5TFlops的单精度浮点性能。在大算力需求不断上升的趋势下,GPU不仅成本高昂,且供应不足,而NPU不仅可以减少AI领域研发的成本,也能减少不必要的资源浪费。
因此,天风证券也认为,随着GPU的功耗过高等弊端的显现,类GPU架构的定制化大算力AI芯片(ASIC)或将存在市场,未来GPU与ASIC两者可能将产生替代竞争。不过,随着人工智能逐渐向平板电脑、台式机、家居、汽车等更多领域渗透,NPU在算力、精度以及灵活性和兼容性存在技术与应用挑战。
随着人工智能的热潮和AI算法的广泛应用,深度学习已成为当前AI研究的重点,在自动驾驶领域,环境感知、传感器融合、控制决策等都会涉及到深度学习。随着人工智能技术栈和行业应用的发展,NPU一方面支持越来越多的模型,包括GPT-4采用的Transformer模型;另一方面,也从AIoT走向消费电子、自动驾驶等更多领域。
以华为NPU为例,相比传统标量、矢量运算模式,华为自研架构NPU采用3D Cube针对矩阵运算做加速,因而单位时间计算的数据量更大,单位功耗下的AI算力也更强,相对传统的CPU和GPU实现数量级提升,实现更优能效。
从具体应用场景来看,NPU将主要应用于图像识别、自然语言处理、智能驾驶等领域。在图像识别领域,NPU能够快速处理各种复杂的图像数据,以实现精准的图像识别和分类等功能。在自然语言处理领域,NPU能够识别各种自然语言数据,以实现智能对话、自动翻译等功能。在智能驾驶领域,NPU则能够快速处理各种传感器数据,以实现自动驾驶、智能导航等功能。总体而言,NPU能够加速神经网络计算,以实现各种复杂数据处理任务的快速和高效。
从未来发展前景来看,NPU 作为一种专门针对神经网络计算的硬件器件,具有广泛的应用前景。未来随着深度学习技术的不断发展,NPU 将会越来越重要,成为未来计算机体系结构的核心组成部分之一。
另外,随着AI应用场景的不断扩大,比如智慧医疗、智慧零售等,NPU将会在更多领域发挥重要作用。同时,随着芯片技术的不断进步,NPU将会越来越小、越来越节能,以适应更多的应用场景,为我们带来更多便利和智能化体验。而在韩国政府的支持下,三星为代表的IDM企业联动产业链合作,以推进“K-云计算”(韩国云计算)项目为导向,或许能做出更有性价比的产品,满足未来智能计算的多元化场景。
文章来自:https://www.eet-china.com/