論文の概要: Increasing Fairness via Combination with Learning Guarantees
- arxiv url: http://arxiv.org/abs/2301.10813v4
- Date: Sun, 18 May 2025 21:36:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.080451
- Title: Increasing Fairness via Combination with Learning Guarantees
- Title(参考訳): 学習保証と組み合わせによるフェアネスの向上
- Authors: Yijun Bian, Kun Zhang,
- Abstract要約: 本研究では,個人的,集団的公正性の両面を反映した「差別的リスク(DR)」という公平性評価尺度を提案する。
本研究では,その特性を調査し,理論学習保証と組み合わさることで,公正性を高めることができることを示す。
- 参考スコア(独自算出の注目度): 8.116369626226815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The concern about hidden discrimination in ML models is growing, as their widespread real-world application increasingly impacts human lives. Various techniques, including commonly used group fairness measures and several fairness-aware ensemble-based methods, have been developed to enhance fairness. However, existing fairness measures typically focus on only one aspect -- either group or individual fairness, and the hard compatibility among them indicates a possibility of remaining biases even when one of them is satisfied. Moreover, existing mechanisms to boost fairness usually present empirical results to show validity, yet few of them discuss whether fairness can be boosted with certain theoretical guarantees. To address these issues, we propose a fairness quality measure named 'discriminative risk (DR)' to reflect both individual and group fairness aspects. Furthermore, we investigate its properties and establish the first- and second-order oracle bounds to show that fairness can be boosted via ensemble combination with theoretical learning guarantees. The analysis is suitable for both binary and multi-class classification. A pruning method is also proposed to utilise our proposed measure and comprehensive experiments are conducted to evaluate the effectiveness of the proposed methods.
- Abstract(参考訳): MLモデルにおける隠れた差別に関する懸念は、その広範囲にわたる現実世界の応用が、ますます人間の生活に影響を及ぼすにつれて増大している。
グループフェアネス対策や、フェアネスを意識したアンサンブル方式など、様々な手法が開発され、フェアネスが向上している。
しかしながら、既存の公正度尺度は、通常、グループまたは個々の公正度のいずれかの側面にのみ焦点をあてる。
さらに、公正性を高めるための既存のメカニズムは通常、有効性を示すための実証的な結果を示すが、ある程度の理論的保証で公正性を高めることができるかどうかを議論する者はほとんどいない。
これらの課題に対処するため、個人と集団の公平性の両方を反映した「差別的リスク(DR)」という公平性評価尺度を提案する。
さらに,その特性を調査し,第1次および第2次オラクル境界を確立することにより,理論学習保証とアンサンブルの組み合わせにより公正性を高めることができることを示す。
この分析は二進分類と多進分類の両方に適している。
また,提案手法を応用し,提案手法の有効性を評価するための総合的な実験を行った。
関連論文リスト
- Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - Intersectional Two-sided Fairness in Recommendation [41.96733939002468]
IFR(Inter-sectional Two-sided Fairness Recommendation)と呼ばれる新しいアプローチを提案する。
提案手法は,不利な群を知覚するシャープネス・アウェア・ロスを利用して協調的損失バランスを用いて,異なる交叉群に対して一貫した識別能力を開発する。
提案手法は, 両面の不公平性を効果的に軽減し, 従来手法よりも一貫して優れていた。
論文 参考訳(メタデータ) (2024-02-05T08:56:24Z) - FFB: A Fair Fairness Benchmark for In-Processing Group Fairness Methods [84.1077756698332]
本稿では,グループフェアネス手法のベンチマークフレームワークであるFair Fairness Benchmark(textsfFFB)を紹介する。
グループフェアネスの異なる概念を確実にするための最先端手法を包括的に分析する。
論文 参考訳(メタデータ) (2023-06-15T19:51:28Z) - Counterpart Fairness -- Addressing Systematic between-group Differences in Fairness Evaluation [17.495053606192375]
機械学習を用いて意思決定を行う場合、アルゴリズム上の決定が公平であり、特定の個人やグループに対して差別的でないことを保証することが重要である。
既存のグループフェアネス手法は、人種や性別などの保護された変数によって規定されたグループ間で平等な結果を保証することを目的としている。
グループ間の系統的な差異が結果に重要な役割を果たす場合、これらの手法は非保護変数の影響を見逃す可能性がある。
論文 参考訳(メタデータ) (2023-05-29T15:41:12Z) - Individual Fairness under Uncertainty [26.183244654397477]
アルゴリズムフェアネス(英: Algorithmic Fairness)は、機械学習(ML)アルゴリズムにおいて確立された領域である。
本稿では,クラスラベルの検閲によって生じる不確実性に対処する,個別の公正度尺度とそれに対応するアルゴリズムを提案する。
この視点は、現実世界のアプリケーションデプロイメントにおいて、より現実的なフェアネス研究のモデルである、と我々は主張する。
論文 参考訳(メタデータ) (2023-02-16T01:07:58Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Conditional Supervised Contrastive Learning for Fair Text Classification [59.813422435604025]
対照的な学習を通してテキスト分類のための等化オッズとして知られる公平性の概念を満たす学習公正表現について研究する。
具体的には、まず、公正性制約のある学習表現と条件付き教師付きコントラスト目的との間の関係を理論的に分析する。
論文 参考訳(メタデータ) (2022-05-23T17:38:30Z) - Fair Federated Learning via Bounded Group Loss [37.72259706322158]
本稿では,実証的公正なフェデレーション学習のための一般的なフレームワークを提案する。
我々は、有界群損失の概念を、群フェアネスに対する理論的に基底的なアプローチとして拡張する。
提案手法の収束保証と結果の正当性保証を提供する。
論文 参考訳(メタデータ) (2022-03-18T23:11:54Z) - Towards Equal Opportunity Fairness through Adversarial Learning [64.45845091719002]
逆行訓練は、自然言語処理におけるバイアス緩和の一般的なアプローチである。
本稿では、よりリッチな特徴を生み出すために、ターゲットクラスをインプットとして利用する、対位訓練のための拡張判別器を提案する。
論文 参考訳(メタデータ) (2022-03-12T02:22:58Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。