論文の概要: How to Capture Intersectional Fairness
- arxiv url: http://arxiv.org/abs/2305.12495v1
- Date: Sun, 21 May 2023 16:15:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-23 20:05:11.279459
- Title: How to Capture Intersectional Fairness
- Title(参考訳): 交差する公平さの捉え方
- Authors: Gaurav Maheshwari, Aur\'elien Bellet, Pascal Denis, Mikaela Keller
- Abstract要約: 分類設定における交叉群フェアネスの問題に取り組む。
我々は$alpha$ Intersectional Fairness frameworkと呼ばれる新しいフレームワークを提案する。
実験の結果,いくつかのプロセス内フェアネスアプローチは,単純な制約のないアプローチよりも改善されていないことがわかった。
- 参考スコア(独自算出の注目度): 1.7434507809930746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we tackle the problem of intersectional group fairness in the
classification setting, where the objective is to learn discrimination-free
models in the presence of several intersecting sensitive groups. First, we
illustrate various shortcomings of existing fairness measures commonly used to
capture intersectional fairness. Then, we propose a new framework called the
$\alpha$ Intersectional Fairness framework, which combines the absolute and the
relative performances between sensitive groups. Finally, we provide various
analyses of our proposed framework, including the min-max and efficiency
analysis. Our experiments using the proposed framework show that several
in-processing fairness approaches show no improvement over a simple
unconstrained approach. Moreover, we show that these approaches minimize
existing fairness measures by degrading the performance of the best of the
group instead of improving the worst.
- Abstract(参考訳): 本研究では,複数の交叉群が存在する場合,識別自由モデルを学ぶことを目的として,分類設定における交叉群の公平性の問題に取り組む。
まず,交差フェアネスを捉えるためによく用いられる既存フェアネス尺度の欠点について述べる。
次に,感度の高いグループ間の絶対的および相対的パフォーマンスを組み合わせた,$\alpha$intersectional fairness framework という新しいフレームワークを提案する。
最後に,min-maxや効率解析など,提案フレームワークの各種解析について述べる。
提案手法を用いた実験により, 単純な非拘束的アプローチに比べて, 処理内公平性が改善されないことが判明した。
さらに,これらの手法は,既存の公平性対策を最小化し,最悪の状況を改善するのではなく,グループの最高のパフォーマンスを低下させることを示した。
関連論文リスト
- Fairness-Aware Meta-Learning via Nash Bargaining [63.44846095241147]
本稿では,機械学習におけるグループレベルの公平性の問題に対処する2段階のメタ学習フレームワークを提案する。
第1段階では、過度な競合を解決するためにNash Bargaining Solution(NBS)を使用して、モデルをステアリングする。
6つのキーフェアネスデータセットと2つの画像分類タスクにおいて、様々なフェアネス目標に対して経験的効果を示す。
論文 参考訳(メタデータ) (2024-06-11T07:34:15Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Conditional Supervised Contrastive Learning for Fair Text Classification [59.813422435604025]
対照的な学習を通してテキスト分類のための等化オッズとして知られる公平性の概念を満たす学習公正表現について研究する。
具体的には、まず、公正性制約のある学習表現と条件付き教師付きコントラスト目的との間の関係を理論的に分析する。
論文 参考訳(メタデータ) (2022-05-23T17:38:30Z) - Fairness Through Counterfactual Utilities [0.0]
Demographic Parity や Equal Opportunity のようなグループフェアネスの定義は、それらが分類問題に制限される基本的な決定確率について仮定する。
我々は、すべての機械学習環境に明確に拡張されたグループフェアネス定義の一般化セットを提供する。
論文 参考訳(メタデータ) (2021-08-11T16:51:27Z) - Fairness for Image Generation with Uncertain Sensitive Attributes [97.81354305427871]
この研究は、画像超解像のような生成手順の文脈における公平性の問題に取り組む。
伝統的群フェアネスの定義は通常、指定された保護された群に関して定義されるが、本質的な真偽は存在しないことを強調する。
人口比率の自然拡大はグループ化に強く依存しており、明白に達成可能であることを示す。
論文 参考訳(メタデータ) (2021-06-23T06:17:17Z) - MultiFair: Multi-Group Fairness in Machine Learning [52.24956510371455]
機械学習におけるマルチグループフェアネスの研究(MultiFair)
この問題を解決するために,汎用的なエンドツーエンドのアルゴリズムフレームワークを提案する。
提案するフレームワークは多くの異なる設定に一般化可能である。
論文 参考訳(メタデータ) (2021-05-24T02:30:22Z) - Characterizing Intersectional Group Fairness with Worst-Case Comparisons [0.0]
我々は、公平度指標が交差性のレンズの下で検討される必要がある理由について議論する。
既存のグループ公平度指標の定義を拡張するための単純な最悪のケース比較方法を提案する。
現代の文脈における交差点の公平性を扱うための社会的、法的、政治的枠組みで締めくくります。
論文 参考訳(メタデータ) (2021-01-05T17:44:33Z) - One-vs.-One Mitigation of Intersectional Bias: A General Method to
Extend Fairness-Aware Binary Classification [0.48733623015338234]
1-vs.ワン・マイティゲーション(英: One-vs. One Mitigation)は、二項分類のためのフェアネス認識機械学習と、センシティブ属性に関連する各サブグループの比較プロセスである。
本手法は,すべての設定において従来の手法よりも交叉バイアスを緩和する。
論文 参考訳(メタデータ) (2020-10-26T11:35:39Z) - On the Fairness of Causal Algorithmic Recourse [36.519629650529666]
グループレベルでの公平度基準と個人レベルでの公平度基準を提案する。
ここでは,会話の公平さは予測の公平さと相補的であることを示す。
本稿では, 社会的介入によって, データ生成プロセスの公正性違反に対処できるかどうかを論じる。
論文 参考訳(メタデータ) (2020-10-13T16:35:06Z) - FACT: A Diagnostic for Group Fairness Trade-offs [23.358566041117083]
グループフェアネス(グループフェアネス、英: Group Fairness)とは、個人の異なる集団が保護された属性によってどのように異なる扱いを受けるかを測定するフェアネスの概念のクラスである。
グループフェアネスにおけるこれらのトレードオフを体系的に評価できる一般的な診断法を提案する。
論文 参考訳(メタデータ) (2020-04-07T14:15:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。