論文の概要: Federated Learning from Only Unlabeled Data with
Class-Conditional-Sharing Clients
- arxiv url: http://arxiv.org/abs/2204.03304v1
- Date: Thu, 7 Apr 2022 09:12:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-08 15:20:32.685183
- Title: Federated Learning from Only Unlabeled Data with
Class-Conditional-Sharing Clients
- Title(参考訳): クラスコンテンツ共有クライアントを用いたラベルなしデータからのフェデレーション学習
- Authors: Nan Lu, Zhao Wang, Xiaoxiao Li, Gang Niu, Qi Dou, Masashi Sugiyama
- Abstract要約: Supervised Federated Learning (FL)は、複数のクライアントがラベル付きデータを共有せずにトレーニングされたモデルを共有することを可能にする。
本研究では,教師なし学習(FedUL)のフェデレーションを提案し,各クライアントのラベル付きデータにラベル付きデータを変換する。
- 参考スコア(独自算出の注目度): 98.22390453672499
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Supervised federated learning (FL) enables multiple clients to share the
trained model without sharing their labeled data. However, potential clients
might even be reluctant to label their own data, which could limit the
applicability of FL in practice. In this paper, we show the possibility of
unsupervised FL whose model is still a classifier for predicting class labels,
if the class-prior probabilities are shifted while the class-conditional
distributions are shared among the unlabeled data owned by the clients. We
propose federation of unsupervised learning (FedUL), where the unlabeled data
are transformed into surrogate labeled data for each of the clients, a modified
model is trained by supervised FL, and the wanted model is recovered from the
modified model. FedUL is a very general solution to unsupervised FL: it is
compatible with many supervised FL methods, and the recovery of the wanted
model can be theoretically guaranteed as if the data have been labeled.
Experiments on benchmark and real-world datasets demonstrate the effectiveness
of FedUL. Code is available at https://github.com/lunanbit/FedUL.
- Abstract(参考訳): supervised federated learning (fl)は、複数のクライアントがラベル付きデータを共有せずにトレーニングされたモデルを共有できるようにする。
しかし、潜在的なクライアントは自身のデータをラベル付けすることにさえ消極的かもしれない。
本稿では,クラスラベルを予測するためのモデルである教師なしFLの可能性を示す。クライアントが所有する未ラベルデータ間でクラス条件分布が共有されている間,クラス優先確率がシフトした場合。
本研究では,教師なし学習(FedUL)のフェデレーションを提案し,各クライアントに対してラベル付きラベル付きデータにラベル付きデータを変換し,教師付きFLにより修正モデルを訓練し,修正モデルから所望モデルを復元する。
FedULは非教師付きFLの非常に一般的な解であり、多くの教師付きFLメソッドと互換性があり、データにラベルが付けられているかのように、所望のモデルの回復を理論的に保証することができる。
ベンチマークと実世界のデータセットの実験は、FedULの有効性を示している。
コードはhttps://github.com/lunanbit/FedULで入手できる。
関連論文リスト
- An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Language-Guided Transformer for Federated Multi-Label Classification [32.26913287627532]
フェデレートラーニング(FL)は、複数のユーザがプライベートデータを共有せずに、プライバシー保護の方法で堅牢なモデルを共同でトレーニングすることを可能にする。
FLの既存のアプローチのほとんどは、タスクをマルチラベル画像分類に移行する際の影響を無視して、従来のシングルラベル画像分類のみを考慮する。
本稿では,この課題に対処するために,言語ガイドトランスフォーマー(FedLGT)の新たなFLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-12T11:03:51Z) - Exploiting Label Skews in Federated Learning with Model Concatenation [39.38427550571378]
Federated Learning(FL)は、生データを交換することなく、さまざまなデータオーナでディープラーニングを実行するための、有望なソリューションとして登場した。
非IID型では、ラベルスキューは困難であり、画像分類やその他のタスクで一般的である。
我々は,これらの局所モデルをグローバルモデルの基礎として分解する,シンプルで効果的なアプローチであるFedConcatを提案する。
論文 参考訳(メタデータ) (2023-12-11T10:44:52Z) - Adaptive Test-Time Personalization for Federated Learning [51.25437606915392]
テスト時パーソナライズド・フェデレーション・ラーニング(TTPFL)と呼ばれる新しい設定を導入する。
TTPFLでは、クライアントはテスト期間中にラベル付きデータに頼ることなく、教師なしの方法でグローバルモデルをローカルに適応する。
本稿では,ソースドメイン間の分散シフトから,モデル内の各モジュールの適応率を適応的に学習する ATP という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-28T20:42:47Z) - PFL-GAN: When Client Heterogeneity Meets Generative Models in
Personalized Federated Learning [55.930403371398114]
パーソナライズドラーニング(PFL)のための新しいGAN(Generative Adversarial Network)の共有と集約戦略を提案する。
PFL-GANは、異なるシナリオにおけるクライアントの不均一性に対処する。より具体的には、まずクライアント間の類似性を学び、次に重み付けされた協調データアグリゲーションを開発する。
いくつかのよく知られたデータセットに対する厳密な実験による実験結果は、PFL-GANの有効性を示している。
論文 参考訳(メタデータ) (2023-08-23T22:38:35Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Towards Unbiased Training in Federated Open-world Semi-supervised
Learning [15.08153616709326]
本稿では,分散およびオープンな環境における重要な課題を解決するための,新しいフェデレートオープンワールドセミスーパーバイドラーニング(FedoSSL)フレームワークを提案する。
我々は,不確実性に留意された損失を抑えることで,局所的に見えないクラスとグローバルな見えないクラスの間のバイアスのあるトレーニングを緩和する。
提案したFedoSSLは、ベンチマークや実世界のデータセットに関する広範な実験を通じて検証される、最先端のFLメソッドに容易に適用することができる。
論文 参考訳(メタデータ) (2023-05-01T11:12:37Z) - Federated Learning on Heterogeneous and Long-Tailed Data via Classifier
Re-Training with Federated Features [24.679535905451758]
Federated Learning (FL)は、分散機械学習タスクのためのプライバシ保護ソリューションを提供する。
FLモデルの性能を著しく損なう難題の1つは、データ不均一性と長い尾分布の共起である。
We propose a novel privacy-serving FL method for heterogeneous and long-tailed data via Federated Re-training with Federated Features (CreFF)。
論文 参考訳(メタデータ) (2022-04-28T10:35:11Z) - Multi-Center Federated Learning [62.32725938999433]
フェデレートラーニング(FL)は、分散ラーニングにおけるデータのプライバシを保護する。
単にデータにアクセスせずに、ユーザーからローカルな勾配を収集するだけだ。
本稿では,新しいマルチセンターアグリゲーション機構を提案する。
論文 参考訳(メタデータ) (2021-08-19T12:20:31Z) - FOCUS: Dealing with Label Quality Disparity in Federated Learning [25.650278226178298]
本稿では, ユビキタスシステムのためのフェデレート・オポチュニティ・コンピューティング(FOCUS)を提案する。
FOCUSは直接観察することなくクライアントローカルデータの信頼性を定量化する。
ノイズの多いラベルでクライアントを効果的に識別し、モデルパフォーマンスへの影響を低減します。
論文 参考訳(メタデータ) (2020-01-29T09:31:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。