論文の概要: Fairness in Federated Learning: Fairness for Whom?
- arxiv url: http://arxiv.org/abs/2505.21584v1
- Date: Tue, 27 May 2025 10:41:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.186775
- Title: Fairness in Federated Learning: Fairness for Whom?
- Title(参考訳): フェデレートラーニングにおけるフェアネス - 誰にとってフェアネスか?
- Authors: Afaf Taik, Khaoula Chehbouni, Golnoosh Farnadi,
- Abstract要約: 既存のアプローチでは、FLライフサイクル全体を通してどのように害が発生するかを見極めながら、狭いシステムレベルのメトリクスを最適化する傾向があります。
1) サーバクライアントアーキテクチャのレンズを通してのみフレーム化された公正性,2) シミュレーションとユースケースとコンテキストのモチベーションのミスマッチ,3) ユーザ保護でシステムを保護するための定義,4) 上流および下流効果でライフサイクルの孤立したステージをターゲットにした介入,5) 複数のフェアネス定義が一度に関連付けられるマルチステークホルダアライメントの欠如。
- 参考スコア(独自算出の注目度): 4.276697874428501
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness in federated learning has emerged as a rapidly growing area of research, with numerous works proposing formal definitions and algorithmic interventions. Yet, despite this technical progress, fairness in FL is often defined and evaluated in ways that abstract away from the sociotechnical contexts in which these systems are deployed. In this paper, we argue that existing approaches tend to optimize narrow system level metrics, such as performance parity or contribution-based rewards, while overlooking how harms arise throughout the FL lifecycle and how they impact diverse stakeholders. We support this claim through a critical analysis of the literature, based on a systematic annotation of papers for their fairness definitions, design decisions, evaluation practices, and motivating use cases. Our analysis reveals five recurring pitfalls: 1) fairness framed solely through the lens of server client architecture, 2) a mismatch between simulations and motivating use-cases and contexts, 3) definitions that conflate protecting the system with protecting its users, 4) interventions that target isolated stages of the lifecycle while neglecting upstream and downstream effects, 5) and a lack of multi-stakeholder alignment where multiple fairness definitions can be relevant at once. Building on these insights, we propose a harm centered framework that links fairness definitions to concrete risks and stakeholder vulnerabilities. We conclude with recommendations for more holistic, context-aware, and accountable fairness research in FL.
- Abstract(参考訳): 連合学習の公正さは、形式的定義とアルゴリズム的介入を提唱する多くの研究によって、急速に研究の領域になってきた。
しかし、この技術的進歩にもかかわらず、FLの公平性はしばしば定義され、これらのシステムが展開される社会技術的文脈から切り離された方法で評価される。
本稿では,既存のアプローチでは,FLライフサイクル全体を通しての障害の発生状況と,それらが多様な利害関係者に与える影響を概観しながら,パフォーマンスパリティやコントリビューションベースの報酬といったシステムレベルの指標を最適化する傾向にある,と論じる。
この主張は、論文の公平性の定義、設計決定、評価の実践、ユースケースのモチベーションに関する体系的な注釈に基づいて、文献の批判的分析を通じて支持する。
私たちの分析では、繰り返し発生する落とし穴が5つあります。
1)サーバクライアントアーキテクチャのレンズを通してのみフレーム化された公正性。
2 シミュレーションのミスマッチ及び使用事例及び状況の動機付け
3) 利用者を保護してシステムを保護するための定義。
4) 上流および下流の影響を無視しつつ, ライフサイクルの孤立段階を標的とした介入。
5)複数のフェアネス定義を同時に関連付けることのできるマルチステークホルダアライメントの欠如。
これらの知見に基づいて、公正の定義と具体的なリスクとステークホルダーの脆弱性を結びつける調和した枠組みを提案する。
FLにおけるより包括的で、文脈に配慮し、説明責任のある公平性の研究を推奨する。
関連論文リスト
- Does Representation Intervention Really Identify Desired Concepts and Elicit Alignment? [73.80382983108997]
表現の介入(Representation intervention)は、大規模言語モデルにおいて基礎となる概念を符号化する表現の発見と修正を目的としている。
介入が忠実であれば、介入されたLLMは有害な概念を消去し、非分配的敵のプロンプトとアウト・オブ・ディストリビューションのジェイルブレイクの両方に対して堅牢であるべきである。
本研究では,有害表現と良性表現の境界を簡易化する概念集中(COCA)を提案する。
論文 参考訳(メタデータ) (2025-05-24T12:23:52Z) - Modelling and Classification of Fairness Patterns for Designing Sustainable Information Systems [0.2867517731896504]
本稿では,社会技術システム設計における公正性の概念について考察する。
これは、価値、仮定、規制、メートル法、タスクの概念を捉えた参照持続可能性メタモデルに基づいている。
論文 参考訳(メタデータ) (2024-11-26T21:23:56Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - ACROCPoLis: A Descriptive Framework for Making Sense of Fairness [6.4686347616068005]
本研究では,アロケーションプロセスを表現するためのACROCPoLisフレームワークを提案する。
このフレームワークは、異なる状況や手順に対する公平性評価に関連する要因を明示する共有語彙を提供する。
論文 参考訳(メタデータ) (2023-04-19T21:14:57Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Fairness in Contextual Resource Allocation Systems: Metrics and
Incompatibility Results [7.705334602362225]
本研究は、住宅を提供するホームレスサービスなど、基本的なニーズを満たすため、不足する資源を割り当てるシステムについて研究する。
これらの制度は、しばしば、体系的な人種、性別、その他の不正によって不当に影響を受けるコミュニティをサポートする。
本稿では,機械学習における公平度指標に触発された文脈的資源配分システムにおける公平性を評価するためのフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-04T02:30:58Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Towards a multi-stakeholder value-based assessment framework for
algorithmic systems [76.79703106646967]
我々は、価値間の近さと緊張を可視化する価値に基づくアセスメントフレームワークを開発する。
我々は、幅広い利害関係者に評価と検討のプロセスを開放しつつ、それらの運用方法に関するガイドラインを提示する。
論文 参考訳(メタデータ) (2022-05-09T19:28:32Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Fairness Through Counterfactual Utilities [0.0]
Demographic Parity や Equal Opportunity のようなグループフェアネスの定義は、それらが分類問題に制限される基本的な決定確率について仮定する。
我々は、すべての機械学習環境に明確に拡張されたグループフェアネス定義の一般化セットを提供する。
論文 参考訳(メタデータ) (2021-08-11T16:51:27Z) - Inter-class Discrepancy Alignment for Face Recognition [55.578063356210144]
IA(Inter-class DiscrepancyAlignment)という統合フレームワークを提案する。
IDA-DAOは、画像と隣人の相違を考慮した類似度スコアの整合に使用される。
IDA-SSEは、GANで生成された仮想候補画像を導入することで、説得力のあるクラス間隣人を提供できます。
論文 参考訳(メタデータ) (2021-03-02T08:20:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。