論文の概要: Federated Learning with Client-Exclusive Classes
- arxiv url: http://arxiv.org/abs/2301.00489v1
- Date: Sun, 1 Jan 2023 23:17:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-03 15:38:10.126563
- Title: Federated Learning with Client-Exclusive Classes
- Title(参考訳): クライアント専用クラスによるフェデレーション学習
- Authors: Jiayun Zhang, Xiyuan Zhang, Xinyang Zhang, Dezhi Hong, Rajesh K.
Gupta, Jingbo Shang
- Abstract要約: 本稿では,各クライアントが同一でないクラスや非結合なクラスでも動作可能な,IID以外の設定に焦点をあてる。
クラスは自然言語(すなわちクラス名)で記述でき、これらの名称は一般にすべての当事者と共有するのに安全である。
各イテレーションでは、ラベルエンコーダがクラス表現を更新し、マッチングを通じてデータ表現を規制する。
- 参考スコア(独自算出の注目度): 26.902679793955972
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing federated classification algorithms typically assume the local
annotations at every client cover the same set of classes. In this paper, we
aim to lift such an assumption and focus on a more general yet practical
non-IID setting where every client can work on non-identical and even disjoint
sets of classes (i.e., client-exclusive classes), and the clients have a common
goal which is to build a global classification model to identify the union of
these classes. Such heterogeneity in client class sets poses a new challenge:
how to ensure different clients are operating in the same latent space so as to
avoid the drift after aggregation? We observe that the classes can be described
in natural languages (i.e., class names) and these names are typically safe to
share with all parties. Thus, we formulate the classification problem as a
matching process between data representations and class representations and
break the classification model into a data encoder and a label encoder. We
leverage the natural-language class names as the common ground to anchor the
class representations in the label encoder. In each iteration, the label
encoder updates the class representations and regulates the data
representations through matching. We further use the updated class
representations at each round to annotate data samples for locally-unaware
classes according to similarity and distill knowledge to local models.
Extensive experiments on four real-world datasets show that the proposed method
can outperform various classical and state-of-the-art federated learning
methods designed for learning with non-IID data.
- Abstract(参考訳): 既存のフェデレーション分類アルゴリズムは、通常、各クライアントのローカルアノテーションが同じクラスのセットをカバーすると仮定する。
本稿では,このような仮定を解き明かし,より汎用的で実用的な非iid設定に焦点をあて,各クライアントが非識別的かつ無関係なクラス集合(すなわち,クライアント排他的クラス)で作業できるようにし,クライアントがそれらの統合を識別するためのグローバル分類モデルを構築することを目的とする。
集約後のドリフトを回避するために、異なるクライアントが同じ潜在空間で動作していることを保証するには、どうすればよいのか?
クラスは自然言語(すなわちクラス名)で記述可能であり、これらの名称は一般的にすべての関係者と共有することが安全である。
そこで,データ表現とクラス表現のマッチングプロセスとして分類問題を定式化し,分類モデルをデータエンコーダとラベルエンコーダに分解する。
自然言語クラス名を共通基盤として利用し,ラベルエンコーダのクラス表現をアンカーする。
各イテレーションでは、ラベルエンコーダがクラス表現を更新し、マッチングを通じてデータ表現を規制する。
さらに,各ラウンドで更新されたクラス表現を用いて,類似性に応じてデータサンプルをアノテートし,局所モデルに対する知識を抽出する。
4つの実世界のデータセットに対する大規模な実験により、提案手法は、非IIDデータを用いて学習するために設計された様々な古典的および最先端のフェデレーション学習手法より優れていることが示された。
関連論文リスト
- FUNAvg: Federated Uncertainty Weighted Averaging for Datasets with Diverse Labels [37.20677220716839]
我々は,関節背骨を連合的に学習することを提案する。
異なるセグメンテーションヘッドは、個々のクライアントのラベルでのみ訓練されているが、それぞれのサイトに存在しない他のラベルに関する情報も学習している。
FUNAvgと呼ばれるこの手法では、平均して同じデータセット上でトレーニングされ、テストされたモデルと同等です。
論文 参考訳(メタデータ) (2024-07-10T09:23:55Z) - FedCRL: Personalized Federated Learning with Contrastive Shared Representations for Label Heterogeneity in Non-IID Data [13.146806294562474]
本稿では,FedCoSR(Federated Contrastive Shareable Representations)という,個人化学習アルゴリズムを提案する。
ローカルモデルの浅い層と典型的なローカル表現のパラメータはどちらもサーバの共有可能な情報である。
クライアント間でのラベル分布スキューによる性能の低下に対処するため、局所表現とグローバル表現の対比学習を採用する。
論文 参考訳(メタデータ) (2024-04-27T14:05:18Z) - Federated Learning with Only Positive Labels by Exploring Label Correlations [78.59613150221597]
フェデレートラーニングは、プライバシー上の制約の下で複数のユーザのデータを使用することで、モデルを協調的に学習することを目的としている。
本稿では,フェデレート学習環境下でのマルチラベル分類問題について検討する。
ラベル相関(FedALC)を探索してフェデレート平均化(Federated Averaging)と呼ばれる新しい,汎用的な手法を提案する。
論文 参考訳(メタデータ) (2024-04-24T02:22:50Z) - Federated Deep Multi-View Clustering with Global Self-Supervision [51.639891178519136]
フェデレートされたマルチビュークラスタリングは、複数のデバイスに分散したデータからグローバルクラスタリングモデルを学習する可能性がある。
この設定では、ラベル情報は未知であり、データのプライバシを保持する必要がある。
本稿では,複数のクライアントから補完的なクラスタ構造をマイニングできる,新しい多視点クラスタリング手法を提案する。
論文 参考訳(メタデータ) (2023-09-24T17:07:01Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Personalized Federated Learning via Amortized Bayesian Meta-Learning [21.126405589760367]
我々は,Amortized Bayesian Meta-Learningを通じて,パーソナライズド・フェデレーション・ラーニングの新しい視点を紹介する。
具体的には,クライアント間の階層的変動推論を用いたemphFedABMLという新しいアルゴリズムを提案する。
我々の理論解析は平均一般化誤差の上限を提供し、未知のデータに対する一般化性能を保証する。
論文 参考訳(メタデータ) (2023-07-05T11:58:58Z) - Dual Class-Aware Contrastive Federated Semi-Supervised Learning [9.742389743497045]
本稿では,FSSL(Federated Semi-Supervised Learning)手法について紹介する。
デュアルクラス対応のコントラストモジュールを実装することで、DCCFSSLは、さまざまなクライアントが大きな逸脱に対処するための統一的なトレーニング目標を確立する。
実験の結果,DCCFSSLは3つのベンチマークデータセットにおいて最先端の手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-11-16T13:54:31Z) - Cross-domain Federated Object Detection [43.66352018668227]
フェデレーション学習は、クライアントデータをリークすることなく、多人数の共同学習を可能にする。
我々はFedODというドメイン間フェデレーションオブジェクト検出フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-30T03:09:59Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - Federated Unsupervised Representation Learning [56.715917111878106]
フェデレート非教師表現学習(FURL)と呼ばれるフェデレーション学習における新しい問題を定式化し、教師なしの共通表現モデルを学習する。
FedCAは2つの主要なモジュールで構成されている: 辞書モジュールは、各クライアントからのサンプルの表現を集約し、表現空間の整合性のためにすべてのクライアントと共有し、アライメントモジュールは、公開データに基づいてトレーニングされたベースモデル上で各クライアントの表現を整合させる。
論文 参考訳(メタデータ) (2020-10-18T13:28:30Z) - Federated Semi-Supervised Learning with Inter-Client Consistency &
Disjoint Learning [78.88007892742438]
ラベル付きデータの位置に基づくFSSL(Federated Semi-Supervised Learning)の2つの重要なシナリオについて検討する。
フェデレートマッチング(FedMatch)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2020-06-22T09:43:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。