論文の概要: Addressing Skewed Heterogeneity via Federated Prototype Rectification with Personalization
- arxiv url: http://arxiv.org/abs/2408.07966v1
- Date: Thu, 15 Aug 2024 06:26:46 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-16 14:46:15.989921
- Title: Addressing Skewed Heterogeneity via Federated Prototype Rectification with Personalization
- Title(参考訳): パーソナライズによるフェデレーションプロトタイプ整形によるスキュード不均一性への対処
- Authors: Shunxin Guo, Hongsong Wang, Shuxia Lin, Zhiqiang Kou, Xin Geng,
- Abstract要約: フェデレートラーニング(Federated Learning)は、複数の分散デバイス間の協調モデルトレーニングを容易にするために設計された、効率的なフレームワークである。
連合学習の重要な課題は、データレベルの不均一性、すなわち、スキュードまたはロングテールのプライベートデータの分散である。
本稿では,フェデレーション・パーソナライゼーションとフェデレーション・プロトタイプ・レクティフィケーションの2つの部分からなる新しいフェデレーション・プロトタイプ・レクティフィケーションを提案する。
- 参考スコア(独自算出の注目度): 35.48757125452761
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning is an efficient framework designed to facilitate collaborative model training across multiple distributed devices while preserving user data privacy. A significant challenge of federated learning is data-level heterogeneity, i.e., skewed or long-tailed distribution of private data. Although various methods have been proposed to address this challenge, most of them assume that the underlying global data is uniformly distributed across all clients. This paper investigates data-level heterogeneity federated learning with a brief review and redefines a more practical and challenging setting called Skewed Heterogeneous Federated Learning (SHFL). Accordingly, we propose a novel Federated Prototype Rectification with Personalization which consists of two parts: Federated Personalization and Federated Prototype Rectification. The former aims to construct balanced decision boundaries between dominant and minority classes based on private data, while the latter exploits both inter-class discrimination and intra-class consistency to rectify empirical prototypes. Experiments on three popular benchmarks show that the proposed approach outperforms current state-of-the-art methods and achieves balanced performance in both personalization and generalization.
- Abstract(参考訳): フェデレートラーニング(Federated Learning)は、ユーザデータのプライバシを保持しながら、複数の分散デバイス間の協調的なモデルトレーニングを容易にするために設計された、効率的なフレームワークである。
連合学習の重要な課題は、データレベルの不均一性、すなわち、スキュードまたはロングテールのプライベートデータの分散である。
この課題に対処するために様々な方法が提案されているが、その多くは、基礎となるグローバルデータが全クライアントに均一に分散されていると仮定している。
本稿では,データレベルの不均一性フェデレート学習を簡単なレビューで検討し,Skewed Heterogeneous Federated Learning (SHFL) と呼ばれる,より実践的で困難な設定を再定義する。
そこで我々は,フェデレート・パーソナライゼーションとフェデレーション・プロトタイプ・レクティフィケーションの2つの部分からなる,フェデレーション・プロトタイプ・レクティフィケーション(Federated Prototype Rectification)を提案する。
前者は、私的データに基づいて、支配階級と少数民族の間のバランスのとれた決定境界を構築することを目的としており、後者は、経験的プロトタイプの修正のために、階級間差別と階級内一貫性の両方を活用している。
3つの人気のあるベンチマーク実験により、提案手法は現在の最先端手法よりも優れ、パーソナライズと一般化の両面でバランスの取れた性能を達成することが示された。
関連論文リスト
- Comparative Evaluation of Clustered Federated Learning Methods [0.5242869847419834]
CFL(Clustered Federated Learning)は、クライアントを均質なグループに分割することを目的としている。
本稿では,2つの最先端CFLアルゴリズムの性能について,フェデレートラーニング(FL)におけるデータ不均一性の分類法を提案する。
我々の目的は、CFLのパフォーマンスとデータ異種シナリオの関係をより明確に理解することである。
論文 参考訳(メタデータ) (2024-10-18T07:01:56Z) - Dynamic Heterogeneous Federated Learning with Multi-Level Prototypes [45.13348636579529]
本研究では,新しいタスクである動的不均一フェデレート学習(Dynamic Heterogeneous Federated Learning, DHFL)について検討する。
コンセプトドリフトを緩和するために,実りある一般化知識を提供し,プロトタイプ空間の連続性を確保するために,プロトタイプとセマンティックプロトタイプを構築した。
実験結果から,提案手法は様々な環境下での最先端性能を実現することが示唆された。
論文 参考訳(メタデータ) (2023-12-15T15:28:25Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - Generalizable Heterogeneous Federated Cross-Correlation and Instance
Similarity Learning [60.058083574671834]
本稿では,新しいFCCL+,フェデレーション相関と非ターゲット蒸留との類似性学習を提案する。
不均一な問題に対しては、無関係な公開データを通信に活用する。
局所的な更新段階における破滅的な忘れ物として、FCCL+はFederated Non Target Distillationを導入している。
論文 参考訳(メタデータ) (2023-09-28T09:32:27Z) - FedABC: Targeting Fair Competition in Personalized Federated Learning [76.9646903596757]
フェデレートラーニングは、クライアントのローカルプライベートデータにアクセスすることなく、モデルを協調的にトレーニングすることを目的としている。
我々はFedABCと呼ばれるバイナリ分類によるFederated Averagingと呼ばれる新規で汎用的なPFLフレームワークを提案する。
特に、各クライアントに1対1のトレーニング戦略を採用して、クラス間の不公平な競争を軽減する。
論文 参考訳(メタデータ) (2023-02-15T03:42:59Z) - Exploiting Personalized Invariance for Better Out-of-distribution
Generalization in Federated Learning [13.246981646250518]
本稿では, 個人化学習手法と比較して, 個人化非分散を探索する汎用的な二重正規化学習フレームワークを提案する。
本手法は,既存のフェデレーション学習や不変学習よりも,多様なアウト・オブ・ディストリビューションおよび非IIDデータケースにおいて優れていることを示す。
論文 参考訳(メタデータ) (2022-11-21T08:17:03Z) - Private Set Generation with Discriminative Information [63.851085173614]
異なるプライベートなデータ生成は、データプライバシの課題に対する有望な解決策である。
既存のプライベートな生成モデルは、合成サンプルの有用性に苦慮している。
我々は,最先端アプローチのサンプルユーティリティを大幅に改善する,シンプルで効果的な手法を提案する。
論文 参考訳(メタデータ) (2022-11-07T10:02:55Z) - Heterogeneous Target Speech Separation [52.05046029743995]
我々は,非相互排他的概念を用いて興味のあるソースを区別できる単一チャネルターゲットソース分離のための新しいパラダイムを提案する。
提案する異種分離フレームワークは,分散シフトが大きいデータセットをシームレスに利用することができる。
論文 参考訳(メタデータ) (2022-04-07T17:14:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。