論文の概要: Handling Group Fairness in Federated Learning Using Augmented Lagrangian
Approach
- arxiv url: http://arxiv.org/abs/2307.04417v1
- Date: Mon, 10 Jul 2023 08:45:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 13:41:54.443934
- Title: Handling Group Fairness in Federated Learning Using Augmented Lagrangian
Approach
- Title(参考訳): 拡張ラグランジアンアプローチによるフェデレーション学習におけるグループフェアネスの扱い
- Authors: Gerry Windiarto Mohamad Dunda and Shenghui Song
- Abstract要約: フェデレートラーニング(FL)はそのプライバシー保護機能のためにかなりの注目を集めている。
本稿では,グループフェアネス問題に明示的に対処するために設計された新しいFLアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 1.7767466724342065
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) has garnered considerable attention due to its
privacy-preserving feature. Nonetheless, the lack of freedom in managing user
data can lead to group fairness issues, where models might be biased towards
sensitive factors such as race or gender, even if they are trained using a
legally compliant process. To redress this concern, this paper proposes a novel
FL algorithm designed explicitly to address group fairness issues. We show
empirically on CelebA and ImSitu datasets that the proposed method can improve
fairness both quantitatively and qualitatively with minimal loss in accuracy in
the presence of statistical heterogeneity and with different numbers of
clients. Besides improving fairness, the proposed FL algorithm is compatible
with local differential privacy (LDP), has negligible communication costs, and
results in minimal overhead when migrating existing FL systems from the common
FL protocol such as FederatedAveraging (FedAvg). We also provide the
theoretical convergence rate guarantee for the proposed algorithm and the
required noise level of the Gaussian mechanism to achieve desired LDP. This
innovative approach holds significant potential to enhance the fairness and
effectiveness of FL systems, particularly in sensitive applications such as
healthcare or criminal justice.
- Abstract(参考訳): federated learning (fl)はそのプライバシー保護機能のためにかなりの注目を集めている。
それでも、ユーザーデータ管理の自由の欠如は、たとえ法的に準拠したプロセスで訓練されたとしても、モデルが人種や性別のような繊細な要因に偏る可能性があるグループフェアネス問題につながる可能性がある。
そこで本研究では,グループフェアネス問題に対処するための新しいFLアルゴリズムを提案する。
本研究では,CelebA と ImSitu のデータセットに対して,統計的不均一性とクライアント数の違いによる精度の低下を最小限に抑えながら,定量的かつ定性的に公正性を向上できることを示す。
提案するFLアルゴリズムは、公平性の向上に加えて、局所微分プライバシー(LDP)と互換性があり、通信コストが無視され、FedAvg(FederatedAveraging)などの共通FLプロトコルから既存のFLシステムに移行する際のオーバーヘッドが最小となる。
また,提案アルゴリズムの理論的収束率保証と,所望の LDP を実現するためのガウス機構のノイズレベルも提供する。
この革新的なアプローチは、特に医療や刑事司法のような繊細なアプリケーションにおいて、flシステムの公平性と有効性を高める重要な可能性を秘めている。
関連論文リスト
- PUFFLE: Balancing Privacy, Utility, and Fairness in Federated Learning [2.8304839563562436]
公平さとプライバシの原則を同時に遵守するマシンラーニングモデルのトレーニングとデプロイは、大きな課題となる。
本稿では,FLシナリオにおける実用性,プライバシ,公正性のバランスを探究する上で有効な,高レベルのパラメータ化アプローチであるPUFFLEを紹介する。
PUFFLEは多様なデータセット,モデル,データ分布に対して有効であり,モデルの不公平性を75%まで低減し,最悪のシナリオでは有効性を最大17%削減できることを示す。
論文 参考訳(メタデータ) (2024-07-21T17:22:18Z) - FedSat: A Statistical Aggregation Approach for Class Imbalaced Clients in Federated Learning [2.5628953713168685]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習のための有望なパラダイムとして登場した。
本稿ではFedSatについて紹介する。FedSatは様々なデータ不均一性を同時に扱うために設計された新しいFLアプローチである。
論文 参考訳(メタデータ) (2024-07-04T11:50:24Z) - FedFDP: Fairness-Aware Federated Learning with Differential Privacy [21.55903748640851]
Federated Learning(FL)は、データサイロの課題を克服するための、新しい機械学習パラダイムである。
我々はまず,FedFairと呼ばれるフェアネス対応のフェデレーション学習アルゴリズムを提案する。
次に、公正性、プライバシ保護、モデルパフォーマンスのトレードオフに対処するため、差分プライバシー保護を導入し、FedFDPアルゴリズムを形成する。
論文 参考訳(メタデータ) (2024-02-25T08:35:21Z) - Marginal Debiased Network for Fair Visual Recognition [59.05212866862219]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成できる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - Multi-dimensional Fair Federated Learning [25.07463977553212]
フェデレートラーニング(FL)は、分散データからモデルをトレーニングするための、有望な協調的でセキュアなパラダイムとして登場した。
群フェアネスとクライアントフェアネスは、FLにとって重要である2次元のフェアネスである。
グループフェアネスとクライアントフェアネスを同時に達成するために,mFairFLと呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2023-12-09T11:37:30Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - FOCUS: Fairness via Agent-Awareness for Federated Learning on
Heterogeneous Data [31.611582207768464]
フェデレートラーニング(FL)は、エージェントがローカルデータを共有せずにグローバルモデルを共同でトレーニングすることを可能にする。
本稿では,異種エージェントの貢献を考慮に入れた,FLフェアネスの正式な定義,エージェント認識によるフェアネス(fairness)を提案する。
また,エージェントクラスタリング(FOCUS)に基づく公正なFLトレーニングアルゴリズムを提案し,FAAが測定したFLの公平性を実現する。
論文 参考訳(メタデータ) (2022-07-21T02:21:03Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Tight Mutual Information Estimation With Contrastive Fenchel-Legendre
Optimization [69.07420650261649]
我々はFLOと呼ばれる新しい,シンプルで強力なコントラストMI推定器を提案する。
実証的に、我々のFLO推定器は前者の限界を克服し、より効率的に学習する。
FLOの有効性は、広範囲なベンチマークを用いて検証され、実際のMI推定におけるトレードオフも明らかにされる。
論文 参考訳(メタデータ) (2021-07-02T15:20:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。