論文の概要: Fairness Regularization in Federated Learning
- arxiv url: http://arxiv.org/abs/2508.12042v1
- Date: Sat, 16 Aug 2025 13:32:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:10.543238
- Title: Fairness Regularization in Federated Learning
- Title(参考訳): フェデレーション学習における公正規則化
- Authors: Zahra Kharaghani, Ali Dadras, Tommy Löfstedt,
- Abstract要約: フェデレートラーニング(FL)は、現代の機械学習において重要なパラダイムとして登場した。
この研究は、クライアント間のパフォーマンスの違いを最小限に抑えることを目的とした、パフォーマンスの公平性に焦点を当てている。
FairGrad (approximate) と FairGrad* (exact) が不均一なデータ設定における公平性と全体的なモデルパフォーマンスを改善することを実証的に示す。
- 参考スコア(独自算出の注目度): 1.4773243280881763
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) has emerged as a vital paradigm in modern machine learning that enables collaborative training across decentralized data sources without exchanging raw data. This approach not only addresses privacy concerns but also allows access to overall substantially larger and potentially more diverse datasets, without the need for centralized storage or hardware resources. However, heterogeneity in client data may cause certain clients to have disproportionate impacts on the global model, leading to disparities in the clients' performances. Fairness, therefore, becomes a crucial concern in FL and can be addressed in various ways. However, the effectiveness of existing fairness-aware methods, particularly in heterogeneous data settings, remains unclear, and the relationships between different approaches are not well understood. In this work, we focus on performance equitable fairness, which aims to minimize differences in performance across clients. We restrict our study to fairness-aware methods that explicitly regularize client losses, evaluating both existing and newly proposed approaches. We identify and theoretically explain connections between the investigated fairness methods, and empirically show that FairGrad (approximate) and FairGrad* (exact) (two variants of a gradient variance regularization method introduced here for performance equitable fairness) improve both fairness and overall model performance in heterogeneous data settings.
- Abstract(参考訳): フェデレートラーニング(FL)は、生データを交換することなく分散化されたデータソース間の協調トレーニングを可能にする、現代の機械学習において重要なパラダイムとして登場した。
このアプローチは、プライバシの懸念に対処するだけでなく、集中ストレージやハードウェアリソースを必要とせずに、より大きく、より多様なデータセットへのアクセスを可能にする。
しかし、クライアントデータの不均一性は、あるクライアントがグローバルモデルに不均等な影響を与え、クライアントのパフォーマンスに相違をもたらす可能性がある。
したがって、フェアネスはFLにおいて重要な関心事となり、様々な方法で対処できる。
しかし, 既存のフェアネス対応手法, 特に異種データ設定の有効性は未解明であり, 異なるアプローチ間の関係はよく理解されていない。
本研究では,クライアント間のパフォーマンスの違いを最小限に抑えることを目的とした,パフォーマンスの公平性に着目した。
本研究は,クライアントの損失を明示的に調整するフェアネス対応手法に限定し,既存手法と新規手法の両方を評価した。
検討したフェアネス法とFairGrad(近似)とFairGrad*(エクササイズ)の接続を理論的に同定し、不均一なデータ設定において、フェアネスと全体モデル性能の両方を改善することを実証的に示す。
関連論文リスト
- Targeted Learning for Data Fairness [52.59573714151884]
データ生成プロセス自体の公平性を評価することにより、公平性推論を拡張する。
我々は、人口統計学的平等、平等機会、条件付き相互情報から推定する。
提案手法を検証するため,いくつかのシミュレーションを行い,実データに適用する。
論文 参考訳(メタデータ) (2025-02-06T18:51:28Z) - Achievable Fairness on Your Data With Utility Guarantees [16.78730663293352]
機械学習の公平性において、異なるセンシティブなグループ間の格差を最小限に抑えるトレーニングモデルは、しばしば精度を低下させる。
本稿では,各データセットに適合する公平性-正確性トレードオフ曲線を近似する計算効率のよい手法を提案する。
そこで我々は,モデルフェアネスを監査するための堅牢な枠組みを実践者に提供し,評価の不確実性を定量化する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-02-27T00:59:32Z) - Straggler-Resilient Personalized Federated Learning [55.54344312542944]
フェデレーション学習は、プライバシと通信の制限を尊重しながら、クライアントの大規模なネットワークに分散されたサンプルからのトレーニングモデルを可能にする。
これら2つのハードルを同時に処理する理論的なスピードアップを保証する新しいアルゴリズム手法を開発した。
提案手法は,すべてのクライアントのデータを用いてグローバルな共通表現を見つけ,各クライアントに対してパーソナライズされたソリューションにつながるパラメータの集合を学習するために,表現学習理論からのアイデアに依存している。
論文 参考訳(メタデータ) (2022-06-05T01:14:46Z) - Uncertainty Minimization for Personalized Federated Semi-Supervised
Learning [15.123493340717303]
我々は,データ関連クライアント(ヘルパーエージェント)からのラベリング支援を部分的にラベル付けまたは未ラベルのクライアントが求めることのできる,新しい半教師付き学習パラダイムを提案する。
実験により,提案手法は部分ラベル付きデータを用いた他の関連する研究よりも優れた性能と安定な収束が得られることが示された。
論文 参考訳(メタデータ) (2022-05-05T04:41:27Z) - Fair and Consistent Federated Learning [48.19977689926562]
フェデレートラーニング(FL)は、分散データソースから学習する能力に対する関心が高まっている。
本稿では,異なるローカルクライアント間で性能整合性とアルゴリズムフェアネスを協調的に検討するFLフレームワークを提案する。
論文 参考訳(メタデータ) (2021-08-19T01:56:08Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z) - Accurate and Robust Feature Importance Estimation under Distribution
Shifts [49.58991359544005]
PRoFILEは、新しい特徴重要度推定法である。
忠実さと頑健さの両面で、最先端のアプローチよりも大幅に改善されていることを示す。
論文 参考訳(メタデータ) (2020-09-30T05:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。