論文の概要: Achieving Distributive Justice in Federated Learning via Uncertainty Quantification
- arxiv url: http://arxiv.org/abs/2504.15924v1
- Date: Tue, 22 Apr 2025 14:07:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-30 18:02:16.639008
- Title: Achieving Distributive Justice in Federated Learning via Uncertainty Quantification
- Title(参考訳): 不確実性定量化によるフェデレーション学習における分配的正義の実現
- Authors: Alycia Carey, Xintao Wu,
- Abstract要約: UDJ-FLはフレキシブルな学習フレームワークであり、複数の分配的正義に基づくクライアントレベルの公正度測定を達成できる。
我々は、UDJ-FLが4つの規定された公正な公正度を全て達成できることを実証的に示す。
- 参考スコア(独自算出の注目度): 12.929357709840975
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Client-level fairness metrics for federated learning are used to ensure that all clients in a federation either: a) have similar final performance on their local data distributions (i.e., client parity), or b) obtain final performance on their local data distributions relative to their contribution to the federated learning process (i.e., contribution fairness). While a handful of works that propose either client-parity or contribution-based fairness metrics ground their definitions and decisions in social theories of equality -- such as distributive justice -- most works arbitrarily choose what notion of fairness to align with which makes it difficult for practitioners to choose which fairness metric aligns best with their fairness ethics. In this work, we propose UDJ-FL (Uncertainty-based Distributive Justice for Federated Learning), a flexible federated learning framework that can achieve multiple distributive justice-based client-level fairness metrics. Namely, by utilizing techniques inspired by fair resource allocation, in conjunction with performing aleatoric uncertainty-based client weighing, our UDJ-FL framework is able to achieve egalitarian, utilitarian, Rawls' difference principle, or desert-based client-level fairness. We empirically show the ability of UDJ-FL to achieve all four defined distributive justice-based client-level fairness metrics in addition to providing fairness equivalent to (or surpassing) other popular fair federated learning works. Further, we provide justification for why aleatoric uncertainty weighing is necessary to the construction of our UDJ-FL framework as well as derive theoretical guarantees for the generalization bounds of UDJ-FL. Our code is publicly available at https://github.com/alycia-noel/UDJ-FL.
- Abstract(参考訳): フェデレーション学習のためのクライアントレベルの公正度メトリクスは、フェデレーション内のすべてのクライアントを確実にするために使用される。
a) ローカルなデータ配信(例えば、クライアントパリティ)、または
b) フェデレーション学習プロセス(すなわち、貢献公正性)への貢献に対して、そのローカルなデータ配信に関する最終的なパフォーマンスを得る。
クライアントパーティまたはコントリビューションに基づく公正度基準を提案するいくつかの研究は、分配的公正のような平等の社会的理論の定義と決定を根拠にしているが、ほとんどの研究は、公正度基準が公正度倫理に最も適しているものを選ぶのが困難である公正度の概念を任意に選択する。
本研究では,複数の分配的正義に基づくクライアントレベルの公正度測定を実現できるフレキシブルな連邦学習フレームワークであるUDJ-FLを提案する。
すなわち、公平な資源配分にインスパイアされた手法を利用して、アレータリックな不確実性に基づくクライアントの重み付けを行うとともに、我々のUDJ-FLフレームワークは平等主義、実用主義、Rawlsの差分原理、砂漠ベースのクライアントレベルの公正性を達成することができる。
我々は、UDJ-FLが、他の人気のある公正な学習作品と同等(または超える)フェアネスを提供するのに加え、4つの定義された分配的正義に基づくクライアントレベルの公正度指標を達成できることを実証的に示す。
さらに,我々のUDJ-FLフレームワークの構築には,なぜアレタリック不確実性重み付けが必要なのかを正当化するとともに,UDJ-FLの一般化限界に関する理論的保証を導出する。
私たちのコードはhttps://github.com/alycia-noel/UDJ-FL.comで公開されています。
関連論文リスト
- LoGoFair: Post-Processing for Local and Global Fairness in Federated Learning [20.12470856622916]
本稿では,FLコンテキストにおける局所性とグローバルフェアネス,すなわちLoGoFairを実現するための新しい後処理フレームワークを提案する。
3つの実世界のデータセットの実験結果は、提案したLoGoFairフレームワークの有効性をさらに示している。
論文 参考訳(メタデータ) (2025-03-21T15:33:09Z) - pFedFair: Towards Optimal Group Fairness-Accuracy Trade-off in Heterogeneous Federated Learning [17.879602968559198]
フェデレートされた学習アルゴリズムは、クライアントの集合データに基づいてモデルをトレーニングすることで、クライアントの精度を最大化することを目的としている。
群フェアネス制約は、FL最適化問題の目的関数に組み込むことができる。
このような手法により、不均一なクライアント分布を持つFL設定において、最適な分類精度が得られることを示す。
論文 参考訳(メタデータ) (2025-03-19T06:15:31Z) - Targeted Learning for Data Fairness [52.59573714151884]
データ生成プロセス自体の公平性を評価することにより、公平性推論を拡張する。
我々は、人口統計学的平等、平等機会、条件付き相互情報から推定する。
提案手法を検証するため,いくつかのシミュレーションを行い,実データに適用する。
論文 参考訳(メタデータ) (2025-02-06T18:51:28Z) - FedSAC: Dynamic Submodel Allocation for Collaborative Fairness in Federated Learning [46.30755524556465]
協調フェアネスのための動的サブモデルアロケーションを備えた新しいフェデレーション学習フレームワークであるFedSACを提案する。
等価性を理論的に保証したサブモデルアロケーションモジュールを開発する。
3つの公開ベンチマークで行った実験は、FedSACが全てのベースライン法を公平性とモデル精度の両方で上回っていることを示している。
論文 参考訳(メタデータ) (2024-05-28T15:43:29Z) - Distribution-Free Fair Federated Learning with Small Samples [54.63321245634712]
FedFaiREEは、分散化された環境で分散のないフェアラーニングのために小さなサンプルで開発された後処理アルゴリズムである。
公正性と精度の両面において厳密な理論的保証を提供し,実験結果により,提案手法の堅牢な実証検証を行う。
論文 参考訳(メタデータ) (2024-02-25T17:37:53Z) - Learning Fair Classifiers via Min-Max F-divergence Regularization [13.81078324883519]
公平な分類モデルを学ぶための新しい min-max F-divergence regularization フレームワークを提案する。
F分割測度は凸性と微分可能性特性を有することを示す。
提案手法は, 精度と公平性のトレードオフに関して, 最先端の性能を実現するものであることを示す。
論文 参考訳(メタデータ) (2023-06-28T20:42:04Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Proportional Fairness in Federated Learning [27.086313029073683]
PropFairは、フェデレート学習において、比例的に公平な解を見つけるための、新しく簡単に実装できるアルゴリズムである。
PropFairはおよそPFソリューションを見つけることができ、すべてのクライアントの平均的なパフォーマンスと最悪の10%のクライアントのバランスがとれることを実証します。
論文 参考訳(メタデータ) (2022-02-03T16:28:04Z) - Collaborative Fairness in Federated Learning [24.7378023761443]
深層学習のための新しい協調フェアフェデレーションラーニング(CFFL)フレームワークを提案する。
CFFLは参加者に異なるモデルに収束させ、予測性能を損なうことなく公正を達成する。
ベンチマークデータセットの実験では、CFFLは高い公正性を達成し、分散フレームワークに匹敵する精度を提供する。
論文 参考訳(メタデータ) (2020-08-27T14:39:09Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。