論文の概要: Unified Group Fairness on Federated Learning
- arxiv url: http://arxiv.org/abs/2111.04986v1
- Date: Tue, 9 Nov 2021 08:21:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-10 15:27:30.718369
- Title: Unified Group Fairness on Federated Learning
- Title(参考訳): 連合学習における統一グループフェアネス
- Authors: Fengda Zhang, Kun Kuang, Yuxuan Liu, Chao Wu, Fei Wu, Jiaxun Lu,
Yunfeng Shao, Jun Xiao
- Abstract要約: フェデレートラーニング(FL)は、グローバルモデルが分散クライアントのプライベートデータに基づいてトレーニングされる、重要な機械学習パラダイムとして登場した。
近年の研究では、顧客間の公平性に焦点が当てられているが、センシティブな属性(例えば、性別や人種)によって形成される異なるグループに対する公正性は無視されている。
本稿では,G-DRFA (Group Distributionally Robust Federated Averaging) と呼ばれる新しいFLアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 22.143427873780404
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) has emerged as an important machine learning paradigm
where a global model is trained based on the private data from distributed
clients. However, most of existing FL algorithms cannot guarantee the
performance fairness towards different clients or different groups of samples
because of the distribution shift. Recent researches focus on achieving
fairness among clients, but they ignore the fairness towards different groups
formed by sensitive attribute(s) (e.g., gender and/or race), which is important
and practical in real applications. To bridge this gap, we formulate the goal
of unified group fairness on FL which is to learn a fair global model with
similar performance on different groups. To achieve the unified group fairness
for arbitrary sensitive attribute(s), we propose a novel FL algorithm, named
Group Distributionally Robust Federated Averaging (G-DRFA), which mitigates the
distribution shift across groups with theoretical analysis of convergence rate.
Specifically, we treat the performance of the federated global model at each
group as an objective and employ the distributionally robust techniques to
maximize the performance of the worst-performing group over an uncertainty set
by group reweighting. We validate the advantages of the G-DRFA algorithm with
various kinds of distribution shift settings in experiments, and the results
show that G-DRFA algorithm outperforms the existing fair federated learning
algorithms on unified group fairness.
- Abstract(参考訳): フェデレートラーニング(FL)は、グローバルモデルが分散クライアントのプライベートデータに基づいてトレーニングされる、重要な機械学習パラダイムとして登場した。
しかし、既存のFLアルゴリズムのほとんどは、分布シフトのため、異なるクライアントや異なるサンプルグループに対するパフォーマンスの公平性を保証することはできない。
近年の研究では、クライアント間の公正性の実現に焦点が当てられているが、現実のアプリケーションにおいて重要かつ実践的な、センシティブな属性(性別や人種など)によって形成される異なるグループに対する公正性は無視されている。
このギャップを埋めるため、flにおける統一グループフェアネスの目標を定式化し、異なるグループで同様のパフォーマンスを持つ公平なグローバルモデルを学ぶ。
任意の感度属性に対する統一群公平性を達成するために, 収束率の理論解析により群間の分布シフトを緩和する, 群分布にロバストなフェデレート平均化法(g-drfa)という新しいflアルゴリズムを提案する。
具体的には,各グループにおけるフェデレーション・グローバル・モデルの性能を目標として扱い,分散的ロバストな手法を用いて,グループ再重み付けによる不確実性に対する最悪のパフォーマンスを最大化する。
実験において,G-DRFAアルゴリズムの利点を様々な分散シフト設定で検証し,G-DRFAアルゴリズムが既存のフェアフェデレーション学習アルゴリズムよりもグループフェアネスで優れていることを示す。
関連論文リスト
- Enhancing Group Fairness in Federated Learning through Personalization [15.367801388932145]
パーソナライゼーションは、意図しない利益として、改善された(局所的な)公正性をもたらす可能性があることを示す。
本稿では,Fair-FCAとFair-FL+HCという2つの新しいフェアネス対応クラスタリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-07-27T19:55:18Z) - Federated Fairness without Access to Sensitive Groups [12.888927461513472]
連合学習におけるグループフェアネスへの現在のアプローチは、トレーニング中に事前に定義されラベル付けされたセンシティブなグループが存在することを前提としている。
我々は、センシティブなグループや追加のラベルの事前定義された定義に依存しないグループフェアネスを保証するための新しいアプローチを提案する。
論文 参考訳(メタデータ) (2024-02-22T19:24:59Z) - Dynamic Fair Federated Learning Based on Reinforcement Learning [19.033986978896074]
フェデレートラーニングは、ローカルデータサンプルを共有することなく、デバイスのグループ間でグローバルモデルの協調トレーニングと最適化を可能にする。
DQFFLと呼ばれる強化学習を伴う動的qフェアネスフェデレーション学習アルゴリズムを提案する。
我々のDQFFLは、全体的な性能、公平性、収束速度において最先端の手法より優れています。
論文 参考訳(メタデータ) (2023-11-02T03:05:40Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Re-weighting Based Group Fairness Regularization via Classwise Robust
Optimization [30.089819400033985]
そこで本研究では,グループフェアネス尺度を学習目標に組み込むことにより,この2つの学習手法を統一する原理的手法を提案する。
我々は,各グループに対して適切な再重み付けを自動的に生成することにより,結果の目的を最小化する反復最適化アルゴリズムを開発した。
実験の結果,FairDROはスケーラブルで,多様なアプリケーションに容易に適用可能であることがわかった。
論文 参考訳(メタデータ) (2023-03-01T12:00:37Z) - Learning Informative Representation for Fairness-aware Multivariate
Time-series Forecasting: A Group-based Perspective [50.093280002375984]
多変量時系列予測モデル(MTS)では変数間の性能不公平性が広く存在する。
フェアネスを意識したMTS予測のための新しいフレームワークであるFairForを提案する。
論文 参考訳(メタデータ) (2023-01-27T04:54:12Z) - Beyond ADMM: A Unified Client-variance-reduced Adaptive Federated
Learning Framework [82.36466358313025]
我々はFedVRAと呼ばれる原始二重FLアルゴリズムを提案し、このアルゴリズムはグローバルモデルの分散還元レベルとバイアスを適応的に制御することができる。
半教師付き画像分類タスクに基づく実験は,既存の手法よりもFedVRAの方が優れていることを示す。
論文 参考訳(メタデータ) (2022-12-03T03:27:51Z) - Fed-CBS: A Heterogeneity-Aware Client Sampling Mechanism for Federated
Learning via Class-Imbalance Reduction [76.26710990597498]
本研究では,ランダムに選択したクライアントからのグループデータのクラス不均衡が,性能の大幅な低下につながることを示す。
我々のキーとなる観測に基づいて、我々は効率的なクライアントサンプリング機構、すなわちフェデレートクラスバランスサンプリング(Fed-CBS)を設計する。
特に、クラス不均衡の尺度を提案し、その後、同型暗号化を用いてプライバシー保護方式でこの尺度を導出する。
論文 参考訳(メタデータ) (2022-09-30T05:42:56Z) - Heterogeneous Federated Learning via Grouped Sequential-to-Parallel
Training [60.892342868936865]
フェデレートラーニング(Federated Learning, FL)は、プライバシ保護のためのコラボレーション機械学習パラダイムである。
本稿では,この課題に対処するため,データヘテロジニアス・ロバストFLアプローチであるFedGSPを提案する。
その結果,FedGSPは7つの最先端アプローチと比較して平均3.7%の精度向上を実現していることがわかった。
論文 参考訳(メタデータ) (2022-01-31T03:15:28Z) - Federating for Learning Group Fair Models [19.99325961328706]
フェデレートラーニング(Federated Learning)は、多数のエンティティが協調してより良いモデルを学ぶことを可能にする、ますます人気のあるパラダイムである。
本研究は,学習段階において,異なる参加者が集団のサブセットにしかアクセスできないパラダイムにおけるminmaxグループフェアネスについて検討する。
論文 参考訳(メタデータ) (2021-10-05T12:42:43Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。