論文の概要: On the Fairness of Causal Algorithmic Recourse
- arxiv url: http://arxiv.org/abs/2010.06529v5
- Date: Sun, 6 Mar 2022 15:13:07 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 22:37:39.789500
- Title: On the Fairness of Causal Algorithmic Recourse
- Title(参考訳): 因果アルゴリズムの公正性について
- Authors: Julius von K\"ugelgen, Amir-Hossein Karimi, Umang Bhatt, Isabel
Valera, Adrian Weller, Bernhard Sch\"olkopf
- Abstract要約: グループレベルでの公平度基準と個人レベルでの公平度基準を提案する。
ここでは,会話の公平さは予測の公平さと相補的であることを示す。
本稿では, 社会的介入によって, データ生成プロセスの公正性違反に対処できるかどうかを論じる。
- 参考スコア(独自算出の注目度): 36.519629650529666
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithmic fairness is typically studied from the perspective of
predictions. Instead, here we investigate fairness from the perspective of
recourse actions suggested to individuals to remedy an unfavourable
classification. We propose two new fairness criteria at the group and
individual level, which -- unlike prior work on equalising the average
group-wise distance from the decision boundary -- explicitly account for causal
relationships between features, thereby capturing downstream effects of
recourse actions performed in the physical world. We explore how our criteria
relate to others, such as counterfactual fairness, and show that fairness of
recourse is complementary to fairness of prediction. We study theoretically and
empirically how to enforce fair causal recourse by altering the classifier and
perform a case study on the Adult dataset. Finally, we discuss whether fairness
violations in the data generating process revealed by our criteria may be
better addressed by societal interventions as opposed to constraints on the
classifier.
- Abstract(参考訳): アルゴリズムの公正性は通常、予測の観点から研究される。
ここでは、不必要な分類を治療するために個人に推奨される行動の観点から公正性を検討する。
グループと個人レベルでの2つの新しい公正基準を提案する。これは、決定境界から平均的なグループ間距離を等しくする以前の作業とは異なり、特徴間の因果関係を明示的に考慮し、物理的世界で実施される会話行動の下流効果を捉える。
我々は,我々の基準が反事実的公平性など他者とどのように関連しているかを考察し,再帰の公平性が予測の公平性に相補的であることを示す。
分類器を変更して公平な因果関係を強制する方法を理論的・実証的に検討し,成人データセットについて事例研究を行った。
最後に,本基準で示されるデータ生成プロセスにおける公平性違反が,分類器の制約とは対照的に社会的な介入によって対処できるかどうかについて考察する。
関連論文リスト
- Finite-Sample and Distribution-Free Fair Classification: Optimal Trade-off Between Excess Risk and Fairness, and the Cost of Group-Blindness [14.421493372559762]
グループフェアネス制約下の二項分類におけるアルゴリズムフェアネスとグループブレンドネスの強制効果を定量化する。
制御された過剰リスクを伴う分布自由かつ有限サンプルフェアネスを保証するフェア分類のための統一的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-21T20:04:17Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Fair Clustering: A Causal Perspective [5.885238773559016]
非因果フェアネスの概念の最適化は、因果的観点から直接差別効果をパラドックス的に引き起こすことが示されている。
本稿では、因果フェアネス指標を取り入れたクラスタリング手法を提案し、教師なし学習における公平性に対するよりニュアンスなアプローチを提供する。
論文 参考訳(メタデータ) (2023-12-14T15:58:03Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Arbitrariness and Social Prediction: The Confounding Role of Variance in
Fair Classification [31.392067805022414]
異なる訓練されたモデル間での予測のばらつきは、公正なバイナリ分類における重要な、未探索のエラーの原因である。
実際には、いくつかのデータ例のばらつきは非常に大きいので、決定を効果的に任意にすることができる。
予測が任意である場合に分類を省略するアンサンブルアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-01-27T06:52:04Z) - Fairness and robustness in anti-causal prediction [73.693135253335]
分散シフトと公平性に対するロバストさは、機械学習モデルに必要な2つの重要なデシラタとして独立に現れている。
これら2つのデシダラタは関連しているように見えるが、実際にはその関連性はしばしば不明である。
この観点から見れば、共通フェアネス基準(分離)とロバストネスの共通概念との明確な関係を描いています。
論文 参考訳(メタデータ) (2022-09-20T02:41:17Z) - Conditional Supervised Contrastive Learning for Fair Text Classification [59.813422435604025]
対照的な学習を通してテキスト分類のための等化オッズとして知られる公平性の概念を満たす学習公正表現について研究する。
具体的には、まず、公正性制約のある学習表現と条件付き教師付きコントラスト目的との間の関係を理論的に分析する。
論文 参考訳(メタデータ) (2022-05-23T17:38:30Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Unfairness Despite Awareness: Group-Fair Classification with Strategic
Agents [37.31138342300617]
戦略エージェントは、より良好な結果を得るために観察された特徴ベクトルを操作する能力とインセンティブの両方を持っている可能性があることを示す。
さらに、有利な群が過剰に表現される領域で公平な学習を行う際に、公平な分類器の選択性が増大し、したがって公正さが失われることが示される。
論文 参考訳(メタデータ) (2021-12-06T02:42:43Z) - Principal Fairness for Human and Algorithmic Decision-Making [1.2691047660244335]
我々は、人間とアルゴリズムによる意思決定のために、主公正と呼ばれる新しい公正の概念を導入する。
既存の統計的公正の定義とは異なり、主公正性は個人が決定に影響を及ぼすことができるという事実をはっきりと説明している。
論文 参考訳(メタデータ) (2020-05-21T00:24:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。