利用边缘计算数据和模型加速联邦学习,微美全息研究分裂联邦学习框架

来源:  搜狐       发布时间:2025-1-15 11:25  |  

随着物联网(IoT)设备的激增和数据量的爆炸性增长,传统集中式云数据中心面临处理速度、带宽消耗和隐私保护等方面的严峻挑战。为应对这些挑战,边缘计算(EC)应运而生,它将计算、存储和分析能力推向网络边缘,即终端设备附近,以减少数据传输延迟,提高响应速度,并增强数据安全性。

另外,在这一背景下,联邦学习(FL)作为一项新兴的边缘人工智能技术,通过在终端设备上分布式训练模型,而不直接传输原始数据,保护了用户隐私,实现了数据的本地化处理和模型的全局优化,极大地促进了边缘智能的发展。

据悉,纳斯达克上市企业微美全息(WIMI.US)正在研究分裂联邦学习(SFL)框架,利用边缘计算中的数据和模型并行加速联邦学习。SFL作为边缘计算领域的一项前沿技术,通过整合数据并行性和模型并行性,为资源受限环境下的联邦学习提供了新的解决方案。它不仅有助于加速联邦学习模型训练,降低通信成本,还能够保护用户隐私,促进数据的本地化处理。

3963388b7d1bd0b7ebecfb76dfc2f9b

在SFL框架中,全局模型被分割成两部分:客户端部分和服务器端部分。客户端仅负责模型的一部分前向传播,而服务器端则负责剩余的模型部分以及反向传播和模型更新。这种分割允许资源受限的设备参与模型训练,同时减轻了它们的计算负担。

数据并行性:在边缘计算环境中,多个设备可以并行处理它们本地的数据集。这种并行性通过允许设备同时进行计算来加速模型的训练过程。

模型并行性:SFL通过在服务器端并行处理多个客户端的模型更新来进一步加速训练。服务器可以同时更新模型的不同部分,从而减少了等待时间并提高了效率。

资源分配:在SFL中,资源分配策略需要考虑设备的计算能力和可用带宽。动态资源分配可以确保每个设备在其能力范围内贡献最大,同时避免过载。

通信优化:为了减少通信开销,SFL可以采用压缩和量化技术来减少模型更新的大小。此外,使用高效的通信协议也可以降低延迟和提高数据传输速率。

可以说,微美全息研究的分裂联邦学习框架具备强大的适应性,以处理不同设备上的异构数据分布和计算能力,其通过动态调整模型分割点和资源分配策略,可以适应不同的网络条件和设备特性。此外,可以采用同态加密和安全多方计算等技术来进一步保护在模型训练过程中交换的信息。

总而言之,随着边缘计算和联邦学习技术的不断发展,微美全息研究的分裂联邦学习框架有望在多个领域,如智能医疗、自动驾驶和智能制造中发挥重要作用。展望未来,微美全息的研究将集中在提高SFL的适应性、灵活性和安全性,以及探索其在更广泛场景中的应用,推动智能服务向更加个性化、高效和安全的方向发展。

(编辑:王星

今日看点
视觉 / 视频更多
中共中央政治局召开会议 习近平主持会议
国务院国资委:整治形式主义 为基层减负
世界最长海底高铁隧道开始盾构掘进
“海葵一号”登船启运前往珠江口盆地
中国华能云南多能互补基地装机突破3000万千瓦
第七届中国企业改革发展峰会暨成果发布会召开
融媒体更多

理想汽车CEO“消失”9个月后首发声 “销冠”不想造车

被曝裁员30%,中国区销量暴跌29%,保时捷何去何从?

起底娃哈哈股权争夺战

时评更多