論文の概要: Handling Group Fairness in Federated Learning Using Augmented Lagrangian
Approach
- arxiv url: http://arxiv.org/abs/2307.04417v1
- Date: Mon, 10 Jul 2023 08:45:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-11 13:41:54.443934
- Title: Handling Group Fairness in Federated Learning Using Augmented Lagrangian
Approach
- Title(参考訳): 拡張ラグランジアンアプローチによるフェデレーション学習におけるグループフェアネスの扱い
- Authors: Gerry Windiarto Mohamad Dunda and Shenghui Song
- Abstract要約: フェデレートラーニング(FL)はそのプライバシー保護機能のためにかなりの注目を集めている。
本稿では,グループフェアネス問題に明示的に対処するために設計された新しいFLアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 1.7767466724342065
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) has garnered considerable attention due to its
privacy-preserving feature. Nonetheless, the lack of freedom in managing user
data can lead to group fairness issues, where models might be biased towards
sensitive factors such as race or gender, even if they are trained using a
legally compliant process. To redress this concern, this paper proposes a novel
FL algorithm designed explicitly to address group fairness issues. We show
empirically on CelebA and ImSitu datasets that the proposed method can improve
fairness both quantitatively and qualitatively with minimal loss in accuracy in
the presence of statistical heterogeneity and with different numbers of
clients. Besides improving fairness, the proposed FL algorithm is compatible
with local differential privacy (LDP), has negligible communication costs, and
results in minimal overhead when migrating existing FL systems from the common
FL protocol such as FederatedAveraging (FedAvg). We also provide the
theoretical convergence rate guarantee for the proposed algorithm and the
required noise level of the Gaussian mechanism to achieve desired LDP. This
innovative approach holds significant potential to enhance the fairness and
effectiveness of FL systems, particularly in sensitive applications such as
healthcare or criminal justice.
- Abstract(参考訳): federated learning (fl)はそのプライバシー保護機能のためにかなりの注目を集めている。
それでも、ユーザーデータ管理の自由の欠如は、たとえ法的に準拠したプロセスで訓練されたとしても、モデルが人種や性別のような繊細な要因に偏る可能性があるグループフェアネス問題につながる可能性がある。
そこで本研究では,グループフェアネス問題に対処するための新しいFLアルゴリズムを提案する。
本研究では,CelebA と ImSitu のデータセットに対して,統計的不均一性とクライアント数の違いによる精度の低下を最小限に抑えながら,定量的かつ定性的に公正性を向上できることを示す。
提案するFLアルゴリズムは、公平性の向上に加えて、局所微分プライバシー(LDP)と互換性があり、通信コストが無視され、FedAvg(FederatedAveraging)などの共通FLプロトコルから既存のFLシステムに移行する際のオーバーヘッドが最小となる。
また,提案アルゴリズムの理論的収束率保証と,所望の LDP を実現するためのガウス機構のノイズレベルも提供する。
この革新的なアプローチは、特に医療や刑事司法のような繊細なアプリケーションにおいて、flシステムの公平性と有効性を高める重要な可能性を秘めている。
関連論文リスト
- FedFDP: Federated Learning with Fairness and Differential Privacy [21.111233729863145]
Federated Learning(FL)は、データサイロの課題を克服する新しい機械学習パラダイムであり、大きな注目を集めている。
我々は、FedFairと呼ばれる公正なフェデレーション付きアルゴリズムを提案する。FedFairに基づいて、プライバシ保護を導入し、FedFDPアルゴリズムを形成する。
FedFDPでは、公正度を調整しながら差分プライバシーを実現するために、公平性を考慮したクリッピング戦略を考案する。
論文 参考訳(メタデータ) (2024-02-25T08:35:21Z) - Marginal Debiased Network for Fair Visual Recognition [65.64172835624206]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
より具体的には、マージンペナルティという概念をフェアネス問題に導入することにより、マージンのソフトマックスロス(MSL)を設計する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成でき、従来の手法と比較して優れたデバイアス結果を得ることができる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - Multi-dimensional Fair Federated Learning [25.07463977553212]
フェデレートラーニング(FL)は、分散データからモデルをトレーニングするための、有望な協調的でセキュアなパラダイムとして登場した。
群フェアネスとクライアントフェアネスは、FLにとって重要である2次元のフェアネスである。
グループフェアネスとクライアントフェアネスを同時に達成するために,mFairFLと呼ばれる手法を提案する。
論文 参考訳(メタデータ) (2023-12-09T11:37:30Z) - Privacy-preserving Federated Primal-dual Learning for Non-convex and Non-smooth Problems with Model Sparsification [51.04894019092156]
FL(Federated Learning)は,FLオーケストレーション(PS)の下でクライアント上でモデルをトレーニングする,急速に成長する領域として認識されている。
本稿では,非滑らかなFL問題に対して,新しい一次分離アルゴリズムを提案し,保証する。
その独特な洞察力のある性質とその分析も提示される。
論文 参考訳(メタデータ) (2023-10-30T14:15:47Z) - EFFL: Egalitarian Fairness in Federated Learning for Mitigating Matthew
Effect [11.24699174877316]
マシュー効果を緩和するために,平等フェアネスフェデレートラーニング(EFFL)を提案する。
EFFLはパフォーマンスの最適性を目指しており、各クライアントに対する経験的リスク損失とバイアスを最小限にしている。
EFFLは、高性能なグローバルモデルを実現する上で、他の最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-09-28T10:51:12Z) - Chasing Fairness Under Distribution Shift: A Model Weight Perturbation
Approach [72.19525160912943]
まず,分布シフト,データ摂動,モデルウェイト摂動の関連性を理論的に検証した。
次に、ターゲットデータセットの公平性を保証するのに十分な条件を分析します。
これらの十分な条件により、ロバストフェアネス正則化(RFR)を提案する。
論文 参考訳(メタデータ) (2023-03-06T17:19:23Z) - Stochastic Methods for AUC Optimization subject to AUC-based Fairness
Constraints [51.12047280149546]
公正な予測モデルを得るための直接的なアプローチは、公正な制約の下で予測性能を最適化することでモデルを訓練することである。
フェアネスを考慮した機械学習モデルのトレーニング問題を,AUCに基づくフェアネス制約のクラスを対象とする最適化問題として定式化する。
フェアネス測定値の異なる実世界のデータに対するアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-12-23T22:29:08Z) - FOCUS: Fairness via Agent-Awareness for Federated Learning on
Heterogeneous Data [31.611582207768464]
フェデレートラーニング(FL)は、エージェントがローカルデータを共有せずにグローバルモデルを共同でトレーニングすることを可能にする。
本稿では,異種エージェントの貢献を考慮に入れた,FLフェアネスの正式な定義,エージェント認識によるフェアネス(fairness)を提案する。
また,エージェントクラスタリング(FOCUS)に基づく公正なFLトレーニングアルゴリズムを提案し,FAAが測定したFLの公平性を実現する。
論文 参考訳(メタデータ) (2022-07-21T02:21:03Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Tight Mutual Information Estimation With Contrastive Fenchel-Legendre
Optimization [69.07420650261649]
我々はFLOと呼ばれる新しい,シンプルで強力なコントラストMI推定器を提案する。
実証的に、我々のFLO推定器は前者の限界を克服し、より効率的に学習する。
FLOの有効性は、広範囲なベンチマークを用いて検証され、実際のMI推定におけるトレードオフも明らかにされる。
論文 参考訳(メタデータ) (2021-07-02T15:20:41Z) - Fair Normalizing Flows [10.484851004093919]
FNF(Fair Normalizing Flows)は、学習された表現に対してより厳密な公正性を保証する新しい手法である。
FNFの主な利点は、その正確な確率計算により、潜在的に逆下流予測器の最大不公平性の保証が得られることである。
我々は,FNFが様々なグループフェアネスの概念を強制する上での有効性を実験的に示すとともに,解釈可能性や伝達学習といった他の魅力的な特性も示す。
論文 参考訳(メタデータ) (2021-06-10T17:35:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。