論文の概要: UPFL: Unsupervised Personalized Federated Learning towards New Clients
- arxiv url: http://arxiv.org/abs/2307.15994v1
- Date: Sat, 29 Jul 2023 14:30:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-01 18:15:28.621887
- Title: UPFL: Unsupervised Personalized Federated Learning towards New Clients
- Title(参考訳): UPFL:新しい顧客に向けた教師なしの個人化フェデレーション学習
- Authors: Tiandi Ye, Cen Chen, Yinggui Wang, Xiang Li and Ming Gao
- Abstract要約: 本稿では,フェデレート学習における比較的未探索の問題に対処する。
フェデレートされたモデルがトレーニングされ、デプロイされ、ラベルのない新しいクライアントが加わると、新しいクライアントのためのパーソナライズされたモデルが非常に難しいタスクになります。
適応的リスク最小化手法を教師なしの個別学習環境に拡張し,提案手法であるFedTTAを提案する。
- 参考スコア(独自算出の注目度): 13.98952154869707
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalized federated learning has gained significant attention as a
promising approach to address the challenge of data heterogeneity. In this
paper, we address a relatively unexplored problem in federated learning. When a
federated model has been trained and deployed, and an unlabeled new client
joins, providing a personalized model for the new client becomes a highly
challenging task. To address this challenge, we extend the adaptive risk
minimization technique into the unsupervised personalized federated learning
setting and propose our method, FedTTA. We further improve FedTTA with two
simple yet effective optimization strategies: enhancing the training of the
adaptation model with proxy regularization and early-stopping the adaptation
through entropy. Moreover, we propose a knowledge distillation loss
specifically designed for FedTTA to address the device heterogeneity. Extensive
experiments on five datasets against eleven baselines demonstrate the
effectiveness of our proposed FedTTA and its variants. The code is available
at: https://github.com/anonymous-federated-learning/code.
- Abstract(参考訳): パーソナライズされた連合学習は、データの多様性の課題に対処するための有望なアプローチとして大きな注目を集めている。
本稿では,フェデレート学習における比較的未探索の問題に対処する。
フェデレーションモデルがトレーニングされ、デプロイされ、ラベルのない新しいクライアントが結合すると、新しいクライアントにパーソナライズされたモデルを提供することは、非常に難しいタスクになります。
この課題に対処するために,適応リスク最小化手法を教師なしの連合学習設定に拡張し,本手法であるfeedtaを提案する。
我々はさらに、プロキシ正規化による適応モデルのトレーニングの強化と、エントロピーによる適応の早期停止という、2つの単純かつ効果的な最適化戦略でFedTTAをさらに改善する。
さらに,デバイスの不均一性に対処するために,FedTTA向けに設計された知識蒸留損失を提案する。
提案したFedTTAとその変異体の有効性を示すため,11基に対する5つのデータセットの大規模な実験を行った。
コードはhttps://github.com/anonymous-federated-learning/codeで入手できる。
関連論文リスト
- Tailored Federated Learning: Leveraging Direction Regulation & Knowledge Distillation [2.1670850691529275]
フェデレーション学習は、医療のようなプライバシーに敏感な領域において、変革的なトレーニングパラダイムとして登場した。
本稿では,モデルデルタ正則化,パーソナライズされたモデル,フェデレーションド・ナレッジ・蒸留,ミックスプールを統合したFL最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-09-29T15:39:39Z) - Ranking-based Client Selection with Imitation Learning for Efficient Federated Learning [20.412469498888292]
フェデレートラーニング(FL)は、複数のデバイスが共同で共有モデルをトレーニングすることを可能にする。
各トレーニングラウンドにおける参加デバイスの選択は、モデル性能とトレーニング効率の両方に重大な影響を及ぼす。
我々は、エンドツーエンドのランキングベースのアプローチであるFedRankという新しいデバイス選択ソリューションを導入する。
論文 参考訳(メタデータ) (2024-05-07T08:44:29Z) - Personalized Federated Learning with Attention-based Client Selection [57.71009302168411]
我々は,意図に基づくクライアント選択機構を備えた新しいPFLアルゴリズムであるFedACSを提案する。
FedACSは、類似したデータ分散を持つクライアント間のコラボレーションを強化するためのアテンションメカニズムを統合している。
CIFAR10とFMNISTの実験は、FedACSの優位性を検証する。
論文 参考訳(メタデータ) (2023-12-23T03:31:46Z) - FedLALR: Client-Specific Adaptive Learning Rates Achieve Linear Speedup
for Non-IID Data [54.81695390763957]
フェデレートラーニング(Federated Learning)は、分散機械学習の手法である。
我々は,AMSGradの異種局所変種であるFedLALRを提案し,各クライアントが学習率を調整する。
クライアントが指定した自動調整型学習率スケジューリングが,クライアント数に対して収束し,線形高速化を実現することを示す。
論文 参考訳(メタデータ) (2023-09-18T12:35:05Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - FedABC: Targeting Fair Competition in Personalized Federated Learning [76.9646903596757]
フェデレートラーニングは、クライアントのローカルプライベートデータにアクセスすることなく、モデルを協調的にトレーニングすることを目的としている。
我々はFedABCと呼ばれるバイナリ分類によるFederated Averagingと呼ばれる新規で汎用的なPFLフレームワークを提案する。
特に、各クライアントに1対1のトレーニング戦略を採用して、クラス間の不公平な競争を軽減する。
論文 参考訳(メタデータ) (2023-02-15T03:42:59Z) - FAT: Federated Adversarial Training [5.287156503763459]
フェデレートラーニング(FL)は、機械学習(ML)におけるプライバシとデータガバナンスの問題に対処する最も重要なパラダイムの1つである。
我々は、トレーニング中のデータのプライバシを保ちながら、推論中の回避の脅威を軽減するために、両方の手法を組み合わせて、連合敵訓練(FAT)への第一歩を踏み出した。
論文 参考訳(メタデータ) (2020-12-03T09:47:47Z) - Personalized Cross-Silo Federated Learning on Non-IID Data [62.68467223450439]
非IIDデータは、連合学習にとって難しい課題である。
我々は、類似したデータを持つクライアント間のペアワイズコラボレーションという新しいアイデアを提案する。
論文 参考訳(メタデータ) (2020-07-07T21:38:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。