論文の概要: Fairness-Accuracy Trade-Offs: A Causal Perspective
- arxiv url: http://arxiv.org/abs/2405.15443v1
- Date: Fri, 24 May 2024 11:19:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-27 14:42:18.434527
- Title: Fairness-Accuracy Trade-Offs: A Causal Perspective
- Title(参考訳): フェアネス・アキュリー・トレードオフ:因果的視点
- Authors: Drago Plecko, Elias Bareinboim,
- Abstract要約: 我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
- 参考スコア(独自算出の注目度): 58.06306331390586
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Systems based on machine learning may exhibit discriminatory behavior based on sensitive characteristics such as gender, sex, religion, or race. In light of this, various notions of fairness and methods to quantify discrimination were proposed, leading to the development of numerous approaches for constructing fair predictors. At the same time, imposing fairness constraints may decrease the utility of the decision-maker, highlighting a tension between fairness and utility. This tension is also recognized in legal frameworks, for instance in the disparate impact doctrine of Title VII of the Civil Rights Act of 1964 -- in which specific attention is given to considerations of business necessity -- possibly allowing the usage of proxy variables associated with the sensitive attribute in case a high-enough utility cannot be achieved without them. In this work, we analyze the tension between fairness and accuracy from a causal lens for the first time. We introduce the notion of a path-specific excess loss (PSEL) that captures how much the predictor's loss increases when a causal fairness constraint is enforced. We then show that the total excess loss (TEL), defined as the difference between the loss of predictor fair along all causal pathways vs. an unconstrained predictor, can be decomposed into a sum of more local PSELs. At the same time, enforcing a causal constraint often reduces the disparity between demographic groups. Thus, we introduce a quantity that summarizes the fairness-utility trade-off, called the causal fairness/utility ratio, defined as the ratio of the reduction in discrimination vs. the excess loss from constraining a causal pathway. This quantity is suitable for comparing the fairness-utility trade-off across causal pathways. Finally, as our approach requires causally-constrained fair predictors, we introduce a new neural approach for causally-constrained fair learning.
- Abstract(参考訳): 機械学習に基づくシステムは、性別、性別、宗教、人種などの繊細な特徴に基づく差別行動を示す。
これを踏まえて、公平さの様々な概念と差別の定量化方法が提案され、公正な予測子を構築するための多くのアプローチが開発された。
同時に、公正性の制約を課すことは、意思決定者の実用性を低下させ、公正性と実用性の間の緊張を浮き彫りにする。
この緊張は、例えば1964年公民権法第7章の異種衝突説(1964年)において、ビジネス上の必要性の考慮に特に注意を払っている場合など、法的な枠組みでも認識されている。
本研究は, 正当性と正当性の間の張力について, 初めて解析するものである。
本稿では,因果フェアネス制約が適用された場合,予測器の損失がどれだけ増加するかを把握するパス固有余剰損失(PSEL)の概念を紹介する。
次に,全ての因果経路に沿った予測値の損失と制約のない予測値との差として定義される総余剰損失(TEL)が,より局所的なPSELの和に分解可能であることを示す。
同時に、因果制約を強制することは、しばしば人口集団間の格差を減少させる。
そこで本研究では,因果経路の制約による過剰な損失に対する差別の低減の比率として定義される因果フェアネス/効用比という,公平性・効用トレードオフを要約した量を紹介した。
この量は、因果経路間の公正効用トレードオフを比較するのに適している。
最後に、我々のアプローチでは因果制約付きフェア予測器を必要とするため、因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
関連論文リスト
- What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Interventional Fairness on Partially Known Causal Graphs: A Constrained
Optimization Approach [44.48385991344273]
本稿では,真の因果グラフが部分的に知られている場合の介入の概念に基づく因果フェアネスを実現するための枠組みを提案する。
提案手法は、観測データとドメイン知識を組み合わせて学習できる因果DAGのクラスを用いて、公正な予測をモデル化することを含む。
シミュレーションと実世界の両方のデータセットの結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-01-19T11:20:31Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - Fairness and robustness in anti-causal prediction [73.693135253335]
分散シフトと公平性に対するロバストさは、機械学習モデルに必要な2つの重要なデシラタとして独立に現れている。
これら2つのデシダラタは関連しているように見えるが、実際にはその関連性はしばしば不明である。
この観点から見れば、共通フェアネス基準(分離)とロバストネスの共通概念との明確な関係を描いています。
論文 参考訳(メタデータ) (2022-09-20T02:41:17Z) - Understanding Instance-Level Impact of Fairness Constraints [12.866655972682254]
公正な制約が課された場合のトレーニング例の影響について検討する。
重みのあるデータ例のサブセットでのトレーニングは、精度のトレードオフによって公平性違反の低減につながることが分かっています。
論文 参考訳(メタデータ) (2022-06-30T17:31:33Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Why Fair Labels Can Yield Unfair Predictions: Graphical Conditions for
Introduced Unfairness [14.710365964629066]
トレーニングデータにおける差別関係の再現に加えて、機械学習システムは差別効果の導入や増幅も可能である。
我々は、このことを不公平を導入し、それが生じる可能性のある状況について調査する。
本稿では,不公平化の指標として全変量を導入し,そのインセンティブが生じる可能性のあるグラフィカルな条件を確立することを提案する。
論文 参考訳(メタデータ) (2022-02-22T11:16:26Z) - Survey on Causal-based Machine Learning Fairness Notions [4.157415305926584]
本稿では,因果関係に基づくフェアネス概念の包括的リストについて検討し,実世界のシナリオにおける適用性について検討する。
因果関係に基づく公平性の概念の大部分は、観測不可能な量という観点で定義されるため、実際にはそれらの量を計算するか、見積もる必要がある。
論文 参考訳(メタデータ) (2020-10-19T14:28:55Z) - On the Fairness of Causal Algorithmic Recourse [36.519629650529666]
グループレベルでの公平度基準と個人レベルでの公平度基準を提案する。
ここでは,会話の公平さは予測の公平さと相補的であることを示す。
本稿では, 社会的介入によって, データ生成プロセスの公正性違反に対処できるかどうかを論じる。
論文 参考訳(メタデータ) (2020-10-13T16:35:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。