論文の概要: FedABC: Targeting Fair Competition in Personalized Federated Learning
- arxiv url: http://arxiv.org/abs/2302.07450v1
- Date: Wed, 15 Feb 2023 03:42:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-16 15:51:48.309858
- Title: FedABC: Targeting Fair Competition in Personalized Federated Learning
- Title(参考訳): FedABC:個人化フェデレーション学習における公正競争を狙う
- Authors: Dui Wang, Li Shen, Yong Luo, Han Hu, Kehua Su, Yonggang Wen, Dacheng
Tao
- Abstract要約: フェデレートラーニングは、クライアントのローカルプライベートデータにアクセスすることなく、モデルを協調的にトレーニングすることを目的としている。
我々はFedABCと呼ばれるバイナリ分類によるFederated Averagingと呼ばれる新規で汎用的なPFLフレームワークを提案する。
特に、各クライアントに1対1のトレーニング戦略を採用して、クラス間の不公平な競争を軽減する。
- 参考スコア(独自算出の注目度): 76.9646903596757
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning aims to collaboratively train models without accessing
their client's local private data. The data may be Non-IID for different
clients and thus resulting in poor performance. Recently, personalized
federated learning (PFL) has achieved great success in handling Non-IID data by
enforcing regularization in local optimization or improving the model
aggregation scheme on the server. However, most of the PFL approaches do not
take into account the unfair competition issue caused by the imbalanced data
distribution and lack of positive samples for some classes in each client. To
address this issue, we propose a novel and generic PFL framework termed
Federated Averaging via Binary Classification, dubbed FedABC. In particular, we
adopt the ``one-vs-all'' training strategy in each client to alleviate the
unfair competition between classes by constructing a personalized binary
classification problem for each class. This may aggravate the class imbalance
challenge and thus a novel personalized binary classification loss that
incorporates both the under-sampling and hard sample mining strategies is
designed. Extensive experiments are conducted on two popular datasets under
different settings, and the results demonstrate that our FedABC can
significantly outperform the existing counterparts.
- Abstract(参考訳): Federated Learningは、クライアントのローカルなプライベートデータにアクセスせずに、モデルを協調的にトレーニングすることを目的としている。
データは異なるクライアントに対して非IIDになり、結果としてパフォーマンスが低下する可能性がある。
近年,パーソナライズド・フェデレーション・ラーニング(PFL)は,局所最適化における正規化や,サーバ上でのモデル集約方式の改善によって,非IIDデータの処理に大きな成功を収めている。
しかし、PFLのアプローチのほとんどは、不均衡なデータ分散と各クライアントのいくつかのクラスに対する正のサンプルの欠如に起因する不公平な競合の問題を考慮していない。
この問題に対処するために、FedABCと呼ばれるバイナリ分類によるフェデレート平均化という、新規で汎用的なPFLフレームワークを提案する。
特に,各クラスに対してパーソナライズされたバイナリ分類問題を構築することにより,クラス間の不公平な競合を軽減するために,各クライアントに‘one-vs-all’トレーニング戦略を採用する。
これはクラス不均衡の課題を悪化させ、アンダーサンプリングとハードサンプルマイニングの両方を組み込んだ新しいパーソナライズされたバイナリ分類の損失が設計されている。
異なる設定の2つの人気のあるデータセットで広範な実験が行われ、その結果、feedabcは既存のデータセットを大きく上回ることができることが判明した。
関連論文リスト
- Addressing Skewed Heterogeneity via Federated Prototype Rectification with Personalization [35.48757125452761]
フェデレートラーニング(Federated Learning)は、複数の分散デバイス間の協調モデルトレーニングを容易にするために設計された、効率的なフレームワークである。
連合学習の重要な課題は、データレベルの不均一性、すなわち、スキュードまたはロングテールのプライベートデータの分散である。
本稿では,フェデレーション・パーソナライゼーションとフェデレーション・プロトタイプ・レクティフィケーションの2つの部分からなる新しいフェデレーション・プロトタイプ・レクティフィケーションを提案する。
論文 参考訳(メタデータ) (2024-08-15T06:26:46Z) - Federated Learning under Partially Class-Disjoint Data via Manifold Reshaping [64.58402571292723]
我々はFedMRと呼ばれる多様体再構成手法を提案し、局所訓練の特徴空間を校正する。
我々は、FedMRがはるかに高い精度と通信効率を達成することを示すために、さまざまなデータセットに関する広範な実験を行います。
論文 参考訳(メタデータ) (2024-05-29T10:56:13Z) - Contrastive encoder pre-training-based clustered federated learning for
heterogeneous data [17.580390632874046]
フェデレートラーニング(FL)は、分散クライアントがデータのプライバシを保持しながら、グローバルモデルを協調的にトレーニングすることを可能にする。
本稿では,モデル収束とFLシステム全体の性能を改善するために,CP-CFL(Contrative Pre-training-based Clustered Federated Learning)を提案する。
論文 参考訳(メタデータ) (2023-11-28T05:44:26Z) - Federated Skewed Label Learning with Logits Fusion [23.062650578266837]
フェデレートラーニング(FL)は、ローカルデータを送信することなく、複数のクライアント間で共有モデルを協調的にトレーニングすることを目的としている。
本稿では,ロジットの校正により局所モデル間の最適化バイアスを補正するFedBalanceを提案する。
提案手法は最先端手法に比べて平均精度が13%高い。
論文 参考訳(メタデータ) (2023-11-14T14:37:33Z) - Towards Unbiased Training in Federated Open-world Semi-supervised
Learning [15.08153616709326]
本稿では,分散およびオープンな環境における重要な課題を解決するための,新しいフェデレートオープンワールドセミスーパーバイドラーニング(FedoSSL)フレームワークを提案する。
我々は,不確実性に留意された損失を抑えることで,局所的に見えないクラスとグローバルな見えないクラスの間のバイアスのあるトレーニングを緩和する。
提案したFedoSSLは、ベンチマークや実世界のデータセットに関する広範な実験を通じて検証される、最先端のFLメソッドに容易に適用することができる。
論文 参考訳(メタデータ) (2023-05-01T11:12:37Z) - Federated Learning of Shareable Bases for Personalization-Friendly Image
Classification [54.72892987840267]
FedBasisは、いくつかの共有可能なベースモデルの集合を学習し、リニアに組み合わせて、クライアント用のパーソナライズされたモデルを形成することができる。
具体的には、新しいクライアントの場合、モデルの重みではなく、小さな組み合わせ係数のみを学ぶ必要がある。
また、FedBasisの有効性と適用性を示すために、画像分類のためのより実用的なPFLテストベッドを提案する。
論文 参考訳(メタデータ) (2023-04-16T20:19:18Z) - Personalized Federated Learning on Long-Tailed Data via Adversarial
Feature Augmentation [24.679535905451758]
PFLは、プライバシを保存する方法で、すべてのクライアントの知識に基づいて、各クライアントのパーソナライズされたモデルを学ぶことを目的としている。
既存のPFL法では、全てのクライアントにわたる基礎となるグローバルデータが、ロングテール分布を考慮せずに均一に分散されていると仮定している。
PFLにおけるこの共同問題に対処するために,FedAFA(Federated Learning with Adversarial Feature Augmentation)を提案する。
論文 参考訳(メタデータ) (2023-03-27T13:00:20Z) - Integrating Local Real Data with Global Gradient Prototypes for
Classifier Re-Balancing in Federated Long-Tailed Learning [60.41501515192088]
フェデレートラーニング(FL)は、グローバルモデルを協調的にトレーニングする複数のクライアントを含む、人気のある分散ラーニングパラダイムになっています。
データサンプルは通常、現実世界の長い尾の分布に従っており、分散化された長い尾のデータのFLは、貧弱なグローバルモデルをもたらす。
本研究では、局所的な実データとグローバルな勾配のプロトタイプを統合し、局所的なバランスの取れたデータセットを形成する。
論文 参考訳(メタデータ) (2023-01-25T03:18:10Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - WAFFLe: Weight Anonymized Factorization for Federated Learning [88.44939168851721]
データが機密性やプライベート性を持つドメインでは、ローカルデバイスを離れることなく、分散的に学習できるメソッドには大きな価値があります。
本稿では,フェデレートラーニングのためのウェイト匿名化因子化(WAFFLe)を提案する。これは,インド・バフェット・プロセスとニューラルネットワークの重み要因の共有辞書を組み合わせたアプローチである。
論文 参考訳(メタデータ) (2020-08-13T04:26:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。