发布网友 发布时间:2024-10-19 22:06
共1个回答
热心网友 时间:2024-10-19 22:22
随着AIPC元年的到来,NPU(神经网络处理器)在硬件军备大赛中崭露头角,开启了端侧AI的热潮。以高通X Elite 为首的新品将NPU纳入硬件,标志着40Tops的Int 8性能基准线的Copilot+的诞生。为了流畅稳定地支持各类应用,后续新品NPU性能需不断升级。即便在PC场景下不需Copilot+级别AI,购买2024年之后的新消费级产品亦需配NPU,那么这个决定是否值得深思?
NPU在算力效率上显著优于CPU和GPU,但随着绝对算力需求的增加,高规格NPU已成SoC中的面积消耗大户。AMD Strix Point的XDNA2 NPU提供50Tops算力,其面积几乎等同于3个Zen 5核心,或接近一半的RDNA3+核显面积。若去除了NPU,AMD可增加约2个Zen 5核心或接近两颗大核心。Intel的首个AIPC芯片Lunar Lake的NPU位于Compute Tie,面积相当大,大约是4核心Skymont集群的2.5倍,甚至接近大核心集群的70%,8Xe2核显的60%。如不配置NPU,Intel至少可以增加8个小核心或2个大核心。
尽管NPU在AIPC芯片中的面积占比显著,其算力并未如预期般高效。以Intel为例,在Lunar Lake上,NPU的算力为最高Int8 48Tops,而Xe2核显则在int8上达到更高的60Tops算力。Intel宣称的NPU算力并没有太多性能密度上的优势,用NPU堆算力不如用GPU划算。Xe核心每128个SP在2G频率下的FP32算力约为4Tops,等效于16Tops的Int8算力,Xe2 LP新增的矩阵运算单元XMX算力再增4倍至Tops。考虑实际标称频率不足2G,Intel宣称的算力并无问题。NPU算力看似有限。
NPU的真正价值在于能耗比而非性能。Intel在Meteor Lake上已搭载NPU,并展示了性能表现。在工艺显著弱于GPU Tile的6nm SoC Tile下,调用NPU后功耗显著下降。因此,NPU对能耗比的提升成为关键。
综上所述,NPU的意义主要在于帮助那些GPU矩阵计算不完善的设备(如AMD、高通、苹果),以及在低功耗场景下提升能耗比。对于AMD,由于RDNA3系列在矩阵计算上的缺失,Zen 5的所有APU自带大型NPU是必要的选择。非APU设备通常搭载独显,对续航不太在意,NPU几乎徒增成本。在Intel方面,Lunar Lake提供了足够的NPU算力,后续Arrow Lake将继续沿用Meteor Lake的NPU方案。虽然能耗比不高,但性能体验尚可。对于需要低功耗AI的用户,选择Lunar Lake更为合适。