北京大学教授、智源研究员张志华团队首次建立了联邦学习在数据非独立情况的收敛性结果,理论揭示了通讯有效性和收敛率之间的权衡。在联邦学习框架中,开发了一种称为具有隐私保护功能的 Fed Power 的算法,用于在现代环境中计算大规模 SVD。基于分布式优化的最新进展,提出了一种延迟投影技术。当将算法应用于分布式优化中一个新的、具有隐私保护功能的领域联邦学习,团队不仅获得了收敛速度比先前工作更好的方差减少联邦学习算法,而且还获得了第一个能够在联合优化中处理固有数据异质性的加速方法。
(图片来源:学者论文)