論文の概要: Federated Fairness without Access to Sensitive Groups
- arxiv url: http://arxiv.org/abs/2402.14929v1
- Date: Thu, 22 Feb 2024 19:24:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 16:27:01.079811
- Title: Federated Fairness without Access to Sensitive Groups
- Title(参考訳): 感性グループへのアクセスのないフェデレーションフェアネス
- Authors: Afroditi Papadaki, Natalia Martinez, Martin Bertran, Guillermo Sapiro,
Miguel Rodrigues
- Abstract要約: 連合学習におけるグループフェアネスへの現在のアプローチは、トレーニング中に事前に定義されラベル付けされたセンシティブなグループが存在することを前提としている。
我々は、センシティブなグループや追加のラベルの事前定義された定義に依存しないグループフェアネスを保証するための新しいアプローチを提案する。
- 参考スコア(独自算出の注目度): 12.888927461513472
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current approaches to group fairness in federated learning assume the
existence of predefined and labeled sensitive groups during training. However,
due to factors ranging from emerging regulations to dynamics and
location-dependency of protected groups, this assumption may be unsuitable in
many real-world scenarios. In this work, we propose a new approach to guarantee
group fairness that does not rely on any predefined definition of sensitive
groups or additional labels. Our objective allows the federation to learn a
Pareto efficient global model ensuring worst-case group fairness and it
enables, via a single hyper-parameter, trade-offs between fairness and utility,
subject only to a group size constraint. This implies that any sufficiently
large subset of the population is guaranteed to receive at least a minimum
level of utility performance from the model. The proposed objective encompasses
existing approaches as special cases, such as empirical risk minimization and
subgroup robustness objectives from centralized machine learning. We provide an
algorithm to solve this problem in federation that enjoys convergence and
excess risk guarantees. Our empirical results indicate that the proposed
approach can effectively improve the worst-performing group that may be present
without unnecessarily hurting the average performance, exhibits superior or
comparable performance to relevant baselines, and achieves a large set of
solutions with different fairness-utility trade-offs.
- Abstract(参考訳): 連合学習におけるグループフェアネスに対する現在のアプローチは、トレーニング中に予め定義されたラベル付きセンシティブグループの存在を仮定している。
しかし、新しい規制からダイナミックス、保護されたグループの位置依存性まで、この仮定は多くの現実のシナリオでは不適当である。
本研究では,センシティブグループや追加ラベルの事前定義に依存しない集団公平性を保証するための新しい手法を提案する。
我々の目的は,フェデレーションがパレートの効率の良いグローバルモデルを学習し,グループサイズの制約のみを条件として,単一超パラメータによるフェアネスとユーティリティのトレードオフを可能にすることである。
これは、人口の十分大きな部分集合がモデルから少なくとも最低レベルの実用性能を受け取ることが保証されることを意味する。
提案手法は、経験的リスク最小化や集中型機械学習によるサブグループロバストネス目標など、既存のアプローチを特殊ケースとして包含する。
コンバージェンスと過剰なリスク保証を享受するフェデレーションでこの問題を解決するアルゴリズムを提供する。
実験の結果,提案手法は, 平均性能を損なうことなく, 最悪のパフォーマンス群を効果的に改善し, 関連するベースラインに優劣または同等の性能を示し, フェアネス・ユーティリティのトレードオフの異なる大規模なソリューションを実現できることが示された。
関連論文リスト
- Distribution-Free Fair Federated Learning with Small Samples [64.03051465062269]
FedFaiREEは、分散化された環境で分散のないフェアラーニングのために小さなサンプルで開発された後処理アルゴリズムである。
公正性と精度の両面において厳密な理論的保証を提供し,実験結果により,提案手法の堅牢な実証検証を行う。
論文 参考訳(メタデータ) (2024-02-25T17:37:53Z) - Mitigating Group Bias in Federated Learning for Heterogeneous Devices [1.181206257787103]
フェデレートラーニング(Federated Learning)は、分散エッジアプリケーションにおけるプライバシ保護モデルトレーニングアプローチとして登場している。
本研究は,プライバシを維持しながら,資源利用のオーバーヘッドを伴わずにグループバイアスを最小限に抑えるグループフェアFLフレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-13T16:53:48Z) - Modeling the Q-Diversity in a Min-max Play Game for Robust Optimization [61.39201891894024]
群分布的ロバスト最適化(群 DRO)は、事前定義された群に対する最悪の損失を最小限にすることができる。
グループDROフレームワークをQ-Diversityを提案して再構築する。
インタラクティブなトレーニングモードによって特徴付けられるQ-Diversityは、アノテーションからグループ識別を緩和し、直接パラメータ化を行う。
論文 参考訳(メタデータ) (2023-05-20T07:02:27Z) - Distributionally Robust Optimization with Probabilistic Group [24.22720998340643]
分散ロバストな最適化のための新しいフレームワークPG-DROを提案する。
私たちのフレームワークの鍵は、ハードグループアノテーションではなく、ソフトグループメンバシップです。
本フレームワークは,グループメンバシップの曖昧さに対処し,従来の技術よりも柔軟性と汎用性を提供する。
論文 参考訳(メタデータ) (2023-03-10T09:31:44Z) - Improved Approximation for Fair Correlation Clustering [4.629694186457133]
相関クラスタリングは教師なし機械学習におけるユビキタスパラダイムであり、不公平に対処することが大きな課題である。
そこで本研究では,データポイントが異なる保護グループに属しているフェア相関クラスタリングについて検討する。
本稿は,Ahmadi et al.とAhmadian et alの以前の研究の質保証を著しく一般化し,改善する。
論文 参考訳(メタデータ) (2022-06-09T03:07:57Z) - Fair Federated Learning via Bounded Group Loss [37.72259706322158]
本稿では,実証的公正なフェデレーション学習のための一般的なフレームワークを提案する。
我々は、有界群損失の概念を、群フェアネスに対する理論的に基底的なアプローチとして拡張する。
提案手法の収束保証と結果の正当性保証を提供する。
論文 参考訳(メタデータ) (2022-03-18T23:11:54Z) - Unified Group Fairness on Federated Learning [22.143427873780404]
フェデレートラーニング(FL)は、グローバルモデルが分散クライアントのプライベートデータに基づいてトレーニングされる、重要な機械学習パラダイムとして登場した。
近年の研究では、顧客間の公平性に焦点が当てられているが、センシティブな属性(例えば、性別や人種)によって形成される異なるグループに対する公正性は無視されている。
本稿では,G-DRFA (Group Distributionally Robust Federated Averaging) と呼ばれる新しいFLアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-09T08:21:38Z) - Focus on the Common Good: Group Distributional Robustness Follows [47.62596240492509]
本稿では,多様なグループ間で共有される特徴の学習を明示的に促進する,新しい,シンプルなアルゴリズムを提案する。
グループDROは、最低の正規化損失を持つグループに焦点を当て、代わりに、他のグループでもより良いパフォーマンスを実現するグループに焦点を当てるが、共有/共通機能を学ぶことにつながる可能性がある。
論文 参考訳(メタデータ) (2021-10-06T09:47:41Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Robust Optimization for Fairness with Noisy Protected Groups [85.13255550021495]
ノイズが保護されたグループラベルに頼った結果について検討した。
頑健な最適化を用いた2つの新しいアプローチを提案する。
頑健なアプローチは、単純アプローチよりも真のグループ公平性を保証することが示される。
論文 参考訳(メタデータ) (2020-02-21T14:58:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。