传统的数字处理系统支持复杂的深度神经网络 (DNN)。问题是这些平台占用了大量的硅空间,需要 DRAM,并且消耗大量能源,这就是为什么许多 AI 应用程序将大部分深度学习工作卸载到远程云服务器的原因。但对于需要对 DNN 进行实时处理的系统,必须在本地处理数据。
当模拟计算与闪存技术相结合时,处理器可以在片上运行多个大型、复杂的 DNN。这消除了对 DRAM 芯片的需求,并在单芯片加速器内实现了难以置信的密集重量存储。通过让许多内存计算元素并行运行,处理器可以进一步最大化推理性能。随着对实时处理的需求不断增长,这种复杂 DNN 模型的片上执行将变得越来越重要。