論文の概要: Promises and Challenges of Causality for Ethical Machine Learning
- arxiv url: http://arxiv.org/abs/2201.10683v2
- Date: Wed, 26 Oct 2022 17:59:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 14:29:56.264421
- Title: Promises and Challenges of Causality for Ethical Machine Learning
- Title(参考訳): 倫理的機械学習のための因果関係の約束と課題
- Authors: Aida Rahmattalabi, Alice Xiang
- Abstract要約: 我々は「潜在的成果の枠組み」に基づく因果フェアネスの適切な適用条件を策定する。
我々は、因果的公平性文学においてしばしば無視される因果的推論の重要な側面を強調した。
このような介入の概念化は因果的仮定の妥当性を評価する上で重要であると我々は主張する。
- 参考スコア(独自算出の注目度): 2.1946447418179664
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, there has been increasing interest in causal reasoning for
designing fair decision-making systems due to its compatibility with legal
frameworks, interpretability for human stakeholders, and robustness to spurious
correlations inherent in observational data, among other factors. The recent
attention to causal fairness, however, has been accompanied with great
skepticism due to practical and epistemological challenges with applying
current causal fairness approaches in the literature. Motivated by the
long-standing empirical work on causality in econometrics, social sciences, and
biomedical sciences, in this paper we lay out the conditions for appropriate
application of causal fairness under the "potential outcomes framework." We
highlight key aspects of causal inference that are often ignored in the causal
fairness literature. In particular, we discuss the importance of specifying the
nature and timing of interventions on social categories such as race or gender.
Precisely, instead of postulating an intervention on immutable attributes, we
propose a shift in focus to their perceptions and discuss the implications for
fairness evaluation. We argue that such conceptualization of the intervention
is key in evaluating the validity of causal assumptions and conducting sound
causal analysis including avoiding post-treatment bias. Subsequently, we
illustrate how causality can address the limitations of existing fairness
metrics, including those that depend upon statistical correlations.
Specifically, we introduce causal variants of common statistical notions of
fairness, and we make a novel observation that under the causal framework there
is no fundamental disagreement between different notions of fairness. Finally,
we conduct extensive experiments where we demonstrate our approach for
evaluating and mitigating unfairness, specially when post-treatment variables
are present.
- Abstract(参考訳): 近年、法的枠組みとの互換性、人間の利害関係者の解釈可能性、観察データに固有のスプリアス相関に対する堅牢性などにより、公正な意思決定システムを設計するための因果的推論への関心が高まっている。
しかし、近年の因果的公平性に対する注意は、現在の因果的公平性アプローチを文献に応用することに対する実践的かつ認識論的課題により、大きな懐疑論を伴っている。
本稿では, 計量学, 社会科学, 生物医学における因果関係に関する長年の実証研究に動機づけられ, 因果関係の公平さの適切な適用条件を「潜在的成果の枠組み」に基づいて概説する。
我々は,因果的フェアネス文学においてしばしば無視される因果的推論の重要な側面を強調する。
特に,人種やジェンダーなどの社会的カテゴリーにおける介入の性質とタイミングを特定することの重要性について論じる。
正確には、不変属性への介入を仮定する代わりに、その認識に焦点を移すことを提案し、公平性評価の意義について議論する。
このような介入の概念化は, 因果仮説の妥当性を評価し, 治療後バイアスを回避しつつ, 適切な因果分析を行う上で重要である。
その後、統計的相関に依存するものを含め、既存の公正度指標の限界に因果性がどのように対処できるかを説明する。
具体的には、共通統計的フェアネス概念の因果的変種を導入し、因果枠組みの下でフェアネスの異なる概念の間に根本的な食い違いがないという新しい観察を行う。
最後に,処理後変数が存在する場合に,不公平性の評価と緩和のためのアプローチを実証する広範囲な実験を行った。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - Fairness and robustness in anti-causal prediction [73.693135253335]
分散シフトと公平性に対するロバストさは、機械学習モデルに必要な2つの重要なデシラタとして独立に現れている。
これら2つのデシダラタは関連しているように見えるが、実際にはその関連性はしばしば不明である。
この観点から見れば、共通フェアネス基準(分離)とロバストネスの共通概念との明確な関係を描いています。
論文 参考訳(メタデータ) (2022-09-20T02:41:17Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - On the Need and Applicability of Causality for Fair Machine Learning [0.0]
我々は、因果性は自動決定の公平性を評価する上で不可欠であると主張する。
非因果予測の社会的影響と因果的主張に依存する法的反差別過程を指摘する。
論文 参考訳(メタデータ) (2022-07-08T10:37:22Z) - What-is and How-to for Fairness in Machine Learning: A Survey,
Reflection, and Perspective [13.124434298120494]
機械学習文学においてこれまで提案されてきたフェアネスの概念を概観し,考察する。
また、現在の予測と決定によって引き起こされる長期的な影響についても検討する。
本稿では、目的を達成するために、ミッション(どんな公正を強制したいのか)と手段(どの公正分析が興味を持つのか)を一致させることの重要性を示す。
論文 参考訳(メタデータ) (2022-06-08T18:05:46Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Survey on Causal-based Machine Learning Fairness Notions [4.157415305926584]
本稿では,因果関係に基づくフェアネス概念の包括的リストについて検討し,実世界のシナリオにおける適用性について検討する。
因果関係に基づく公平性の概念の大部分は、観測不可能な量という観点で定義されるため、実際にはそれらの量を計算するか、見積もる必要がある。
論文 参考訳(メタデータ) (2020-10-19T14:28:55Z) - On the Fairness of Causal Algorithmic Recourse [36.519629650529666]
グループレベルでの公平度基準と個人レベルでの公平度基準を提案する。
ここでは,会話の公平さは予測の公平さと相補的であることを示す。
本稿では, 社会的介入によって, データ生成プロセスの公正性違反に対処できるかどうかを論じる。
論文 参考訳(メタデータ) (2020-10-13T16:35:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。