忆阻器最新Science:利用完全集成的忆阻器芯片进行边缘学习
2023/9/22 15:31:09 阅读:64 发布者:
以下文章来源于Artificial Synapse ,作者Synapse
研究背景
人类的学习能力在智能增长和快速适应未知场景或动态变化环境方面发挥着至关重要的作用。边缘人工智能(AI)应用也需要具有这种学习能力的硬件,以使相关设备能够适应新的场景或用户习惯。然而,深度神经网络(DNN)训练通常是通过基于冯-诺依曼计算架构和高精度数字计算范式的传统硬件实现的。处理器芯片和片外主内存之间的大量数据移动会产生大量能耗,并造成整个训练过程的大部分延迟。因此尽管云计算平台可以处理这种能源密集型训练,但其高能耗阻碍了在功耗有限的缘计算平台上实施学习。相比之下,基于忆阻器的神经启发计算通过其颠覆性的内存计算架构和模拟计算范式,消除了这种大量的数据移动。忆阻器交叉阵列可以存储模拟突触权重,并利用欧姆定律和基尔霍夫定律,在单个时间步长内并行执行原位向量矩阵乘法(VMM)运算。集成了多个忆阻器交叉棒阵列和互补金属氧化物半导体 (CMOS)电路的神经启发计算芯片可以轻松实现 DNN 推理,并具有在没有任何片外内存辅助的情况下处理完全片上学习的巨大潜力。基于忆阻器的神经启发计算可大幅提高能效,这使得这一范例在开发可实现低功耗学习设备的未来芯片方面大有可为。有几项研究已经通过实验证明了使用忆阻器横杆阵列进行原位权重调整的学习方法,尽管使用软件或外部数字处理器来实现反向传播 (BP)算法。然而,实现具有强大学习能力和低能耗成本的完整全集成忆阻器芯片仍是一项挑战。关键的挑战在于将 BP 算法映射到芯片硬件的效率不高。首先,由于器件的非理想性,如器件的可变性和非线性电导调制,BP 算法在内存中的实现需要代价高昂的电导调整操作和写入验证。其次,很难通过写入验证实现高效的并行电导调整,这使得片上学习更加耗时料能。第三,权重更新计算期间所需的高精度数据处理操作需要占用大量电路面积和高能耗导致不可接受的开销。
研究成果
学习对于边缘智能设备适应不同的应用场景和用户来说非常重要。目前的神经网络训练技术需要在计算单元和存储单元之间移动大量数据,这阻碍了边缘设备学习功能的实现。清华大学吴华强及高滨教授等人开发了一种完全集成的忆阻器芯片,它具有提高学习能力和降低能耗成本的特点。STELLAR 架构中的各种方案,包括学习算法、硬件实现和并行电导调整方案,都是通用的方法,可通过使用忆阻器交叉阵列促进片上学习,而无需考虑忆阻器器件的类型。本研究执行的任务包括运动控制、图像分类和语音识别。相关研究以“Edge learning using a fully integrated neuro-inspired memristor chip”为题发表在Science期刊上。
图文导读
Fig. 1. Edge learning with a neuro-inspired memristor chip.
Fig. 2. Design of the memristor-featured architecture for on-chip learning.
Fig. 3. The memristor chip for on-chip learning.
Fig. 4. Improvement learning demonstrations on the memristor chip.
总结与展望
作者开发了一种完全集成的忆阻器芯片,具有学习能力强、能耗低的特点。STELLAR 架构中的各种方案,包括学习算法、硬件实现和并行电导调整方案,都是通用方法,可通过使用忆阻器交叉阵列进行边缘学习,而无需考虑忆阻器器件的类型。展示了在运动控制、图像分类和语音识别等各种任务中对新样本和新类别的改进学习,这表明 STELLAR 架构能够适应器件的非理想性,并为忆阻器芯片配备了适应新场景的改进学习能力。通过基于先进制造技术的进一步电路设计,STELLAR 架构可以实现片上学习型忆阻器芯片,其能效比数字加速器高出约 75 倍。这项研究是朝着未来具有高能效和广泛学习能力的芯片迈出的重要一步。希望该研究成果能加快未来智能边缘设备的发展,使其能适应不同的应用场景和用卫。
文献链接
Edge learning using a fully integrated neuro-inspired memristor chip
https://www.science.org/doi/10.1126/science.ade3483
转自:“i学术i科研”微信公众号
如有侵权,请联系本站删除!