边缘智能计算设备在部署神经网络时,常需通过训练微调来提升网络精度。然而,远程云端训练方法存在高延迟、高功耗及隐私泄露风险等问题。因此,实现支持本地训练的存算一体技术至关重要。传统的存算一体宏仅支持网络推理功能,无法满足网络训练所需的转置运算。现有方案在训练中的前向与反向传播过程中,无法有效复用乘累加电路,导致功耗和面积上的浪费,且仅支持定点数制的模拟存算方案,在精度上存在较大缺陷。当前,存算一体领域亟需解决的问题是,如何有效实现支持转置操作的高能效、高精度的存算一体宏。