論文の概要: FOCUS: Fairness via Agent-Awareness for Federated Learning on
Heterogeneous Data
- arxiv url: http://arxiv.org/abs/2207.10265v4
- Date: Thu, 16 Nov 2023 02:37:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 18:43:12.107537
- Title: FOCUS: Fairness via Agent-Awareness for Federated Learning on
Heterogeneous Data
- Title(参考訳): FOCUS:異種データのフェデレーション学習のためのエージェント認識によるフェアネス
- Authors: Wenda Chu, Chulin Xie, Boxin Wang, Linyi Li, Lang Yin, Arash Nourian,
Han Zhao, Bo Li
- Abstract要約: フェデレートラーニング(FL)は、エージェントがローカルデータを共有せずにグローバルモデルを共同でトレーニングすることを可能にする。
本稿では,異種エージェントの貢献を考慮に入れた,FLフェアネスの正式な定義,エージェント認識によるフェアネス(fairness)を提案する。
また,エージェントクラスタリング(FOCUS)に基づく公正なFLトレーニングアルゴリズムを提案し,FAAが測定したFLの公平性を実現する。
- 参考スコア(独自算出の注目度): 31.611582207768464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) allows agents to jointly train a global model without
sharing their local data. However, due to the heterogeneous nature of local
data, it is challenging to optimize or even define fairness of the trained
global model for the agents. For instance, existing work usually considers
accuracy equity as fairness for different agents in FL, which is limited,
especially under the heterogeneous setting, since it is intuitively "unfair" to
enforce agents with high-quality data to achieve similar accuracy to those who
contribute low-quality data, which may discourage the agents from participating
in FL. In this work, we propose a formal FL fairness definition, fairness via
agent-awareness (FAA), which takes different contributions of heterogeneous
agents into account. Under FAA, the performance of agents with high-quality
data will not be sacrificed just due to the existence of large amounts of
agents with low-quality data. In addition, we propose a fair FL training
algorithm based on agent clustering (FOCUS) to achieve fairness in FL measured
by FAA. Theoretically, we prove the convergence and optimality of FOCUS under
mild conditions for linear and general convex loss functions with bounded
smoothness. We also prove that FOCUS always achieves higher fairness in terms
of FAA compared with standard FedAvg under both linear and general convex loss
functions. Empirically, we show that on four FL datasets, including synthetic
data, images, and texts, FOCUS achieves significantly higher fairness in terms
of FAA while maintaining competitive prediction accuracy compared with FedAvg
and state-of-the-art fair FL algorithms.
- Abstract(参考訳): フェデレートラーニング(FL)は、エージェントがローカルデータを共有せずにグローバルモデルを共同でトレーニングすることを可能にする。
しかし、局所データの異種性のため、エージェントの訓練されたグローバルモデルの公平性を最適化したり定義したりすることは困難である。
例えば、既存の研究は、精度の公平さをFLにおける異なるエージェントの公正さとみなすが、これは特に不均一な条件下では、エージェントに高品質なデータを強制し、低品質なデータに貢献するエージェントと同様の正確さを達成するのは直感的に「不公平」である。
本研究では,異種エージェントの寄与を考慮に入れた,FLフェアネスの正式な定義,エージェント認識によるフェアネス(fairness)を提案する。
FAAの下では、高品質なデータを持つエージェントのパフォーマンスは、低品質のデータを持つ大量のエージェントの存在のためだけに犠牲にはならない。
さらに,エージェントクラスタリング(FOCUS)に基づく公正なFLトレーニングアルゴリズムを提案し,FAAが測定したFLの公平性を実現する。
理論的には、線形および一般凸損失関数の平坦な条件下での FOCUS の収束と最適性を証明する。
また, 一般凸損失関数と一般凸損失関数の両面において, FOCUS が標準FedAvg と比較して常に高い公正性を達成することを示す。
実験では,合成データ,画像,テキストを含む4つのflデータセットにおいて,fedavgや最先端のfair flアルゴリズムと比較して,faaのフェア性が著しく向上することを示す。
関連論文リスト
- An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Demystifying Local and Global Fairness Trade-offs in Federated Learning
Using Partial Information Decomposition [7.918307236588161]
本研究は,フェデレートラーニング(FL)におけるグループフェアネストレードオフに対する情報理論的視点を示す。
FLでは、$textitUnique Disparity$, $textitRedundant Disparity$, $textitMasked Disparity$という、不公平な3つのソースを特定します。
グローバル・フェアネスとローカル・フェアネスのトレードオフに関する根本的な制限を導き、彼らが同意するか、意見が一致しないかを強調します。
論文 参考訳(メタデータ) (2023-07-21T03:41:55Z) - Fairness-aware Federated Minimax Optimization with Convergence Guarantee [10.727328530242461]
フェデレートラーニング(FL)はそのプライバシー保護機能のためにかなりの注目を集めている。
ユーザデータ管理の自由の欠如は、モデルが人種や性別などのセンシティブな要因に偏っている、グループフェアネスの問題につながる可能性がある。
本稿では,FLにおけるグループフェアネス問題に明示的に対処するために,拡張ラグランジアン法(FFALM)を用いたフェアフェデレーション平均化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-07-10T08:45:58Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Disentangled Federated Learning for Tackling Attributes Skew via
Invariant Aggregation and Diversity Transferring [104.19414150171472]
属性は、クライアント間の一貫した最適化方向から、現在の連邦学習(FL)フレームワークを歪めます。
本稿では,ドメイン固有属性とクロス不変属性を2つの補足枝に分離するために,非絡み付きフェデレーション学習(DFL)を提案する。
実験により、DFLはSOTA FL法と比較して高い性能、より良い解釈可能性、より高速な収束率でFLを促進することが確認された。
論文 参考訳(メタデータ) (2022-06-14T13:12:12Z) - Federated Learning on Heterogeneous and Long-Tailed Data via Classifier
Re-Training with Federated Features [24.679535905451758]
Federated Learning (FL)は、分散機械学習タスクのためのプライバシ保護ソリューションを提供する。
FLモデルの性能を著しく損なう難題の1つは、データ不均一性と長い尾分布の共起である。
We propose a novel privacy-serving FL method for heterogeneous and long-tailed data via Federated Re-training with Federated Features (CreFF)。
論文 参考訳(メタデータ) (2022-04-28T10:35:11Z) - Sparse Federated Learning with Hierarchical Personalized Models [24.763028713043468]
フェデレートラーニング(FL)は、ユーザのプライベートデータを収集することなく、プライバシセーフで信頼性の高い協調トレーニングを実現する。
階層型パーソナライズされたモデルを用いたスパースフェデレーション学習(sFedHP)という,モロー包絡に基づく階層型近位写像を用いたパーソナライズされたFLアルゴリズムを提案する。
また、連続的に微分可能な近似L1ノルムをスパース制約として使用して通信コストを低減させる。
論文 参考訳(メタデータ) (2022-03-25T09:06:42Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - FedPrune: Towards Inclusive Federated Learning [1.308951527147782]
フェデレートラーニング(Federated Learning, FL)は、分散データの共有モデルをプライバシ保護形式でトレーニングする分散学習技術である。
我々は,この課題に対処するシステムであるFedPruneを提案する。
Central Limit Theoremからの洞察を利用することで、FedPruneは非IIDデータよりも堅牢なパフォーマンスを実現する新しい集約テクニックを取り入れている。
論文 参考訳(メタデータ) (2021-10-27T06:33:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。