为了充分发挥无线边缘人工智能(AI)的潜力,在资源受限的边缘设备上进行能量要求高的模型训练通常需要非常庞大且多样化的数据集。
新加坡南洋理工大学的研究人员提出了一种领先的联合神经形态学习(LFNL)技术,它是一种基于脉冲神经网络的分布式节能型类脑计算方法。所提出的技术将使边缘设备能够利用类似大脑的生物生理结构来协作训练全局模型,同时帮助保护隐私。
研究表明,在边缘设备之间数据集分布不均匀的情况下,LFNL 实现了与现有边缘 AI 技术相当的识别精度,同时大幅降低了 >3.5 倍的数据流量和 > 2.0 倍的计算延迟。
此外,与标准联邦学习相比,LFNL 显着降低了 > 4.5 倍的能耗,精度损失高达 1.5%。因此,提出的 LFNL 可以促进类脑计算和边缘 AI 的发展。
该研究以「 Lead federated neuromorphic learning for wireless edge artificial intelligence」为题,于 2022 年 7 月 25 日发布在《 Nature Communications》。
论文链接: https://www.nature.com/articles/s41467-022-32020-w