論文の概要: Causal Context Connects Counterfactual Fairness to Robust Prediction and
Group Fairness
- arxiv url: http://arxiv.org/abs/2310.19691v1
- Date: Mon, 30 Oct 2023 16:07:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 19:19:49.812612
- Title: Causal Context Connects Counterfactual Fairness to Robust Prediction and
Group Fairness
- Title(参考訳): 因果関係は対実フェアネスとロバスト予測とグループフェアネスを結びつける
- Authors: Jacy Reese Anthis and Victor Veitch
- Abstract要約: 我々は、公正性と正確性の間に根本的なトレードオフがないことを示すことによって、事実的公正を動機付けます。
対実フェアネスは、比較的単純なグループフェアネスの測定によってテストされることがある。
- 参考スコア(独自算出の注目度): 15.83823345486604
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Counterfactual fairness requires that a person would have been classified in
the same way by an AI or other algorithmic system if they had a different
protected class, such as a different race or gender. This is an intuitive
standard, as reflected in the U.S. legal system, but its use is limited because
counterfactuals cannot be directly observed in real-world data. On the other
hand, group fairness metrics (e.g., demographic parity or equalized odds) are
less intuitive but more readily observed. In this paper, we use $\textit{causal
context}$ to bridge the gaps between counterfactual fairness, robust
prediction, and group fairness. First, we motivate counterfactual fairness by
showing that there is not necessarily a fundamental trade-off between fairness
and accuracy because, under plausible conditions, the counterfactually fair
predictor is in fact accuracy-optimal in an unbiased target distribution.
Second, we develop a correspondence between the causal graph of the
data-generating process and which, if any, group fairness metrics are
equivalent to counterfactual fairness. Third, we show that in three common
fairness contexts$\unicode{x2013}$measurement error, selection on label, and
selection on predictors$\unicode{x2013}$counterfactual fairness is equivalent
to demographic parity, equalized odds, and calibration, respectively.
Counterfactual fairness can sometimes be tested by measuring relatively simple
group fairness metrics.
- Abstract(参考訳): 反事実的公平性は、異なる人種や性別のような異なる保護されたクラスがある場合、aiや他のアルゴリズムシステムによって同じ方法で分類されるように要求される。
これは米国法体系に反映される直感的な基準であるが、反事実は現実世界のデータでは直接観察できないため、その使用は制限されている。
一方、グループフェアネスの指標(例えば、人口比率や等化確率)は直感的ではないが、より容易に観察できる。
本稿では, 対実フェアネス, 頑健な予測, グループフェアネスのギャップを埋めるために, $\textit{causal context}$ を用いる。
まず, 公平性と正確性の間には, 必ずしも根本的なトレードオフが存在するとは限らないことを示すことにより, 反事実的公正さを動機づける。
第2に,データ生成過程の因果グラフと,グループフェアネスメトリクスが反事実フェアネスと等価である場合の対応関係を考案する。
第3に,3つの共通フェアネスコンテキストにおいて,ラベル選択,予測者の選択が,それぞれ人口差パリティ,等化オッズ,キャリブレーションと等価であることを示す。
対実フェアネスは、比較的単純なグループフェアネスの測定によってテストすることができる。
関連論文リスト
- Implementing Fairness: the view from a FairDream [0.0]
私たちはAIモデルをトレーニングし、不平等を検出して修正するために、独自の公正パッケージFairDreamを開発します。
本実験は,FairDreamの特性として,真理を条件としたフェアネスの目標を達成できることを実証した。
論文 参考訳(メタデータ) (2024-07-20T06:06:24Z) - Counterfactual Fairness for Predictions using Generative Adversarial
Networks [28.65556399421874]
我々は, 対実フェアネスの下で予測を行うための, GCFN (Generative Counterfactual Fairness Network) と呼ばれる新しいディープニューラルネットワークを開発した。
本手法は, 対実的公正性の概念を保証するために数学的に保証されている。
論文 参考訳(メタデータ) (2023-10-26T17:58:39Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Counterfactual Fairness Is Basically Demographic Parity [0.0]
公正な意思決定は、倫理的に機械学習アルゴリズムを社会的設定で実装する上で重要である。
また, 対実的公正性を満たすアルゴリズムが, 人口統計学的平等を満足することを示す。
我々は、保護グループ内の個人の秩序を維持するという具体的な公正目標を定式化する。
論文 参考訳(メタデータ) (2022-08-07T23:38:59Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - Accurate Fairness: Improving Individual Fairness without Trading
Accuracy [4.0415037006237595]
本研究では,個別の公正度を精度に合わせるために,新しい公正度基準,正確な公正度を提案する。
正確な公正性はまた、類似のサブ集団の合併に対する典型的な群フェアネス基準をも意味している。
私たちの知る限りでは、シームズアプローチがバイアス軽減に適応するのはこれが初めてです。
論文 参考訳(メタデータ) (2022-05-18T03:24:16Z) - On Disentangled and Locally Fair Representations [95.6635227371479]
人種や性別などのセンシティブなグループに対して公平な方法で分類を行うという課題について検討する。
局所的公正表現を学習し、学習された表現の下で、各サンプルの近傍は感度特性の観点からバランスをとる。
論文 参考訳(メタデータ) (2022-05-05T14:26:50Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z) - Metric-Free Individual Fairness with Cooperative Contextual Bandits [17.985752744098267]
グループフェアネスは、グループ内の一部の個人に対して不公平であるように、異なるグループが同様に扱われるべきである。
個々の公正性は、問題固有の類似度指標に依存するため、まだ検討されていない。
本研究では,メトリックフリーな個人フェアネスと協調的文脈帯域幅アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-13T03:10:35Z) - Algorithmic Decision Making with Conditional Fairness [48.76267073341723]
条件付きフェアネスを、条件付きフェアネス変数の条件付けにより、より健全なフェアネス計量として定義する。
本稿では,アルゴリズム決定の精度と公平性のトレードオフを追跡するために,導出条件公正規則化器(DCFR)を提案する。
論文 参考訳(メタデータ) (2020-06-18T12:56:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。