論文の概要: Trade-offs Between Individual and Group Fairness in Machine Learning: A Comprehensive Review
- arxiv url: http://arxiv.org/abs/2602.00094v1
- Date: Fri, 23 Jan 2026 19:25:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 02:03:42.375818
- Title: Trade-offs Between Individual and Group Fairness in Machine Learning: A Comprehensive Review
- Title(参考訳): 機械学習における個人とグループフェアネスのトレードオフ:包括的レビュー
- Authors: Sandra Benítez-Peña, Blas Kolic, Victoria Menendez, Belén Pulido,
- Abstract要約: グループフェアネス(GF)は人口サブ人口間の格差を緩和することに焦点を当て、個人フェアネス(IF)は類似した個人の一貫した扱いを強調している。
本研究は、GFとIFを共同で扱う手法について検討し、両視点を統一されたフレームワークに統合する。
本稿では,ハイブリッドフェアネスアプローチの体系的かつ批判的なレビューを行い,採用するフェアネスメカニズムと,複数のフェアネス基準の調整に使用されるアルゴリズム的および数学的戦略に基づいて既存の手法を整理する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Algorithmic fairness has become a central concern in computational decision-making systems, where ensuring equitable outcomes is essential for both ethical and legal reasons. Two dominant notions of fairness have emerged in the literature: Group Fairness (GF), which focuses on mitigating disparities across demographic subpopulations, and Individual Fairness (IF), which emphasizes consistent treatment of similar individuals. These notions have traditionally been studied in isolation. In contrast, this survey examines methods that jointly address GF and IF, integrating both perspectives within unified frameworks and explicitly characterizing the trade-offs between them. We provide a systematic and critical review of hybrid fairness approaches, organizing existing methods according to the fairness mechanisms they employ and the algorithmic and mathematical strategies used to reconcile multiple fairness criteria. For each class of methods, we examine their theoretical foundations, optimization mechanisms, and empirical evaluation practices, and discuss their limitations. Additionally, we discuss the challenges and identify open research directions for developing principled, context-aware hybrid fairness methods. By synthesizing insights across the literature, this survey aims to serve as a comprehensive resource for researchers and practitioners seeking to design hybrid algorithms that provide reliable fairness guarantees at both the individual and group levels.
- Abstract(参考訳): アルゴリズムフェアネスは、倫理的理由と法的理由の両方において、公平な結果の確保が不可欠である計算決定システムにおいて、中心的な関心事となっている。
グループフェアネス (GF) と、類似した個人の一貫した扱いを強調する個人フェアネス (IF) である。
これらの概念は伝統的に独立して研究されてきた。
対照的に、GFとIFを共同で扱う手法について検討し、両視点を統一されたフレームワークに統合し、両者のトレードオフを明確に特徴づける。
本稿では,ハイブリッドフェアネスアプローチの体系的かつ批判的なレビューを行い,採用するフェアネスメカニズムと,複数のフェアネス基準の調整に使用されるアルゴリズム的および数学的戦略に基づいて既存の手法を整理する。
それぞれの手法について,理論的基礎,最適化機構,経験的評価手法について検討し,その限界について考察する。
さらに,これらの課題を議論し,文脈対応型ハイブリッドフェアネス手法の開発に向けたオープンリサーチの方向性を明らかにする。
本調査は,文献全体の洞察を合成することによって,個人レベルとグループレベルの両方で信頼性の高い公正性を保証するハイブリッドアルゴリズムを設計しようとする研究者や実践者にとって,総合的な資源となることを目的とする。
関連論文リスト
- Toward Unifying Group Fairness Evaluation from a Sparsity Perspective [14.456880823997757]
本稿では,アルゴリズムの公平性を評価するための分散空間ベースのフレームワークを提案する。
このフレームワークは、既存の公正性基準と整合し、幅広い機械学習タスクに幅広い適用性を示す。
論文 参考訳(メタデータ) (2025-11-01T02:02:11Z) - A Survey on Group Fairness in Federated Learning: Challenges, Taxonomy of Solutions and Directions for Future Research [3.521369597288705]
機械学習におけるグループフェアネスは、異なるグループ間で平等な結果を達成することに焦点を当てた研究の重要領域である。
フェデレートラーニング(Federated Learning)は、その固有の異種データ分布のため、公平性方法論の必要性を増幅する。
フェデレーテッド・ラーニングにおけるグループフェアネスに関する総合的な調査は行われていない。
論文 参考訳(メタデータ) (2024-10-04T18:39:28Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Fairness meets Cross-Domain Learning: a new perspective on Models and
Metrics [80.07271410743806]
クロスドメイン学習(CD)とモデルフェアネスの関係について検討する。
いくつかの人口集団にまたがる顔画像と医療画像のベンチマークと、分類とローカライゼーションタスクについて紹介する。
本研究は,3つの最先端フェアネスアルゴリズムとともに,14のCDアプローチをカバーし,前者が後者に勝ることを示す。
論文 参考訳(メタデータ) (2023-03-25T09:34:05Z) - Fair Enough: Standardizing Evaluation and Model Selection for Fairness
Research in NLP [64.45845091719002]
現代のNLPシステムは様々なバイアスを示しており、モデル偏見に関する文献が増えている。
本稿では,その現状を解明し,公正学習における意味ある進歩の道筋を立案することを目的とする。
論文 参考訳(メタデータ) (2023-02-11T14:54:00Z) - Increasing Fairness via Combination with Learning Guarantees [8.116369626226815]
本研究では,個人的,集団的公正性の両面を反映した「差別的リスク(DR)」という公平性評価尺度を提案する。
本研究では,その特性を調査し,理論学習保証と組み合わさることで,公正性を高めることができることを示す。
論文 参考訳(メタデータ) (2023-01-25T20:31:06Z) - Fair Machine Learning in Healthcare: A Review [90.22219142430146]
我々は、機械学習と医療格差における公正性の交差を分析する。
機械学習の観点から、関連する公正度メトリクスを批判的にレビューする。
本稿では,医療における倫理的かつ公平なMLアプリケーション開発を約束する新たな研究指針を提案する。
論文 参考訳(メタデータ) (2022-06-29T04:32:10Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。