仿生是模仿生物系统的功能和行为,来建造技术系统的一种科学方法。它打破了生物和机器的界限,将各种不同的系统沟通起来。
从这个角度来看,人工智能芯片可以算作是仿生芯片。但是我认为目前的人工智能还只是停留在人工阶段,真正的智能应该是具有自我学习能力(不需要依赖大数据训练,会自主学习),新型的类脑芯片才算得上是真正的仿生芯片。
所以,我不认为苹果A12并是什么仿生芯片,可能这么叫是为了听上去高大上一些。其实际上就是手机SoC当中加入了AI运算加速内核。苹果A11/A12当中都集成了专门用于神经网路计算的独立处理单元(独立的内核),也就是大家常听到的NPU(不同厂商叫法会有差异)。一般在手机的SoC当中,CPU主要负责一些通用计算,能处理各种复杂的任务,适应性强。比如它也能够处理图形任务、进行人工智能计算,只不过效率要比GPU、NPU低。
而GPU则主要负责处理图形任务,它的优势就在于可支持大规模的并行计算架构,非常适合一些简单重复的计算任务。目前也被很多的厂商用于深度学习、数据模型的训练上。虽然大规模部署算力强大,但是功耗也是非常的大。所以,主要被应用于一些对于功耗要求不是很高的人工智能计算领域。
现在大家所说的AI芯片实际上就是专用型的ASIC芯片。它的AI计算能力和计算效率都直接根据特定的AI算法的需要进行定制的,所以相对CPU、GPU,其可以实现体积小、功耗低、高可靠性、保密性强、计算性能高、计算效率高等优势。所以目前在终端侧(特别是移动终端)的AI计算上,很多厂商都开始选择采用专用的AI芯片,或者在SoC当中集成NPU内核。
回过头来说苹果A11/12当中集成的NPU内核,这实际上是一些特定的神经网络类型即AI算法(比如语音/图片识别、人脸识别等算法)的硬件化,主要就是起到针对这些AI算法运算的加速。比如原本做图像识别,一分钟只能识别一百张,而有了NPU加速则可实现一分钟识别数千张图片,不仅速度更快而且功耗也更低。
目前手机芯片上所能提供的AI能力,主要是针对语音、图片、人脸、AR等的一些应用。另外神经网络引擎也拥有一定的机器学习的能力,比如你每天都刷脸解锁,所以AI也学习你脸部面容的一些变化(人的面容会因为慢慢的衰老而发生变化)。
总的来说,我们应该将A12芯片作为一个整体来看,其AI的能力并不仅仅是由NPU提供的,在一些场景下,其他的CPU/GPU等内核也会参与到AI运算当中,而NPU的作用也主要是针对特定的AI算法进行加速。
本文来自“网友”用户投稿,该文观点仅代表作者本人,不代表华夏信息网立场,本站不对文章中的任何观点负责,内容版权归原作者所有、内容只用于提供信息阅读,无任何商业用途。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站(文章、内容、图片、音频、视频)有涉嫌抄袭侵权/违法违规的内容,请发送邮件至1470280261#qq.com举报,一经查实,本站将立刻删除、维护您的正当权益。如若转载,请注明出处:http://www.xxxwhg.com/zh/97096.html