ECCV 2022 | FedX: 在无监督联邦学习中进行知识蒸馏

ECCV 2022 | FedX: 在无监督联邦学习中进行知识蒸馏FedX 是一种无监督联邦学习算法 结合对比学习和知识蒸馏 处理数据分布在不同客户端的场景

大家好,欢迎来到IT知识分享网。

b8c215454d727f6e5d1e8bbb055d1ac7.gif

©PaperWeekly 原创 · 作者 | 张成蹊

单位 | Freewheel机器学习工程师

研究方向 | 自然语言处理

论文的立意是在邦学过程中,结合对比学习,用局部与全局的两种蒸馏方式来无监督地学习样本的向量表示。FedX 不仅是一种创新的无监督学习算法,更是一种可以热插拔用于传统对比学习,使之效果提升的无监督损失函数。

关键词:联邦学习(Federated Learning),对比学习(Contrastive Learning),知识蒸馏(Knowledge Distillation),无监督学习(Unsupervised Learning)。

46019fc6af3739e24c8445ca16fa9fb7.png

论文标题:

FedX: Unsupervised Federated Learning with Cross Knowledge Distillation

论文链接:

https://arxiv.org/abs/2207.09158

代码链接:

https://github.com/Sungwon-Han/FEDX

beb7e183da5bb2a77a03fc8fe2d27ebe.png

相关背景

联邦学习假设数据分散在不同的客户端中,且不能与中央服务器共享;截止目前,已经有很多有监督联邦学习用在下游任务的相关研究,如目标检测、图像分割、人员重识别等,但对于无监督联邦学习的需求也在逐步增加,以应对一些本地客户端缺失数据的场景。其中比较具有挑战性的研究点为:

  1. 数据在不同客户端是离散且异构的,不满足数据独立同分布的条件,所以联邦学习算法必须考虑到独立客户端与全局数据分布不同时的有偏情况;
  2. 在数据有偏到一定程度,客户端可能只拥有较少的数据,此时需要引入无监督/半监督的联邦学习方法,使得每一个客户端都从全局模型中获益,达到较好利用本地数据的目的。

联邦学习的整体流程如下图所示:

bf3d48e5289ec7b6465af8c88c5838f8.png

其中:

  1. Local Update:每个client各自学习自己的样本表示,获得各自独立的本地参数模型;
  2. Local model update:将本地参数模型

免责声明:本站所有文章内容,图片,视频等均是来源于用户投稿和互联网及文摘转载整编而成,不代表本站观点,不承担相关法律责任。其著作权各归其原作者或其出版社所有。如发现本站有涉嫌抄袭侵权/违法违规的内容,侵犯到您的权益,请在线联系站长,一经查实,本站将立刻删除。 本文来自网络,若有侵权,请联系删除,如若转载,请注明出处:https://haidsoft.com/121800.html

(0)
上一篇 2025-10-21 14:26
下一篇 2025-10-21 14:33

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注微信