論文の概要: Survey on Causal-based Machine Learning Fairness Notions
- arxiv url: http://arxiv.org/abs/2010.09553v7
- Date: Tue, 7 Jun 2022 17:38:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 22:33:18.326169
- Title: Survey on Causal-based Machine Learning Fairness Notions
- Title(参考訳): 因果的機械学習フェアネス表記法に関する調査
- Authors: Karima Makhlouf, Sami Zhioua and Catuscia Palamidessi
- Abstract要約: 本稿では,因果関係に基づくフェアネス概念の包括的リストについて検討し,実世界のシナリオにおける適用性について検討する。
因果関係に基づく公平性の概念の大部分は、観測不可能な量という観点で定義されるため、実際にはそれらの量を計算するか、見積もる必要がある。
- 参考スコア(独自算出の注目度): 4.157415305926584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Addressing the problem of fairness is crucial to safely use machine learning
algorithms to support decisions with a critical impact on people's lives such
as job hiring, child maltreatment, disease diagnosis, loan granting, etc.
Several notions of fairness have been defined and examined in the past decade,
such as statistical parity and equalized odds. The most recent fairness
notions, however, are causal-based and reflect the now widely accepted idea
that using causality is necessary to appropriately address the problem of
fairness. This paper examines an exhaustive list of causal-based fairness
notions and study their applicability in real-world scenarios. As the majority
of causal-based fairness notions are defined in terms of non-observable
quantities (e.g., interventions and counterfactuals), their deployment in
practice requires to compute or estimate those quantities using observational
data. This paper offers a comprehensive report of the different approaches to
infer causal quantities from observational data including identifiability
(Pearl's SCM framework) and estimation (potential outcome framework). The main
contributions of this survey paper are (1) a guideline to help selecting a
suitable fairness notion given a specific real-world scenario, and (2) a
ranking of the fairness notions according to Pearl's causation ladder
indicating how difficult it is to deploy each notion in practice.
- Abstract(参考訳): 公平性の問題に対処するには、雇用、児童虐待、疾患診断、貸与など、人々の生活に重大な影響を与える決定を支援するために、機械学習アルゴリズムを安全に使用することが不可欠である。
公正性のいくつかの概念は、統計パリティや等化奇数など、過去10年間に定義され、検討されてきた。
しかし、最近の公正の概念は因果関係に基づくものであり、因果関係を用いることは公平性の問題に適切に対処するために必要であるという考えを反映している。
本稿では,因果関係に基づく公平性概念の徹底的なリストと,その実世界シナリオへの適用性について検討する。
因果関係に基づく公平性の概念の大部分は、観察不能な量(例えば、介入や反事実)で定義されているため、実際の展開では、観測データを使用してそれらの量を計算し、見積もる必要がある。
本稿では、同定可能性(PearlのSCMフレームワーク)や推定(潜在的結果フレームワーク)を含む観測データから因果量を予測するための様々なアプローチを包括的に報告する。
本研究の主な貢献は,(1)特定の現実のシナリオに与えられた適切なフェアネス概念の選択を支援するためのガイドライン,(2)パールの因果関係に基づくフェアネス概念のランキングから,それぞれの概念を実際に展開することがいかに困難であるかを示す。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Advancing Counterfactual Inference through Nonlinear Quantile Regression [77.28323341329461]
ニューラルネットワークで実装された効率的かつ効果的な対実的推論のためのフレームワークを提案する。
提案手法は、推定された反事実結果から見つからないデータまでを一般化する能力を高める。
複数のデータセットで実施した実証実験の結果は、我々の理論的な主張に対する説得力のある支持を提供する。
論文 参考訳(メタデータ) (2023-06-09T08:30:51Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - Causal Fairness Analysis [68.12191782657437]
意思決定設定における公平性の問題を理解し、モデル化し、潜在的に解決するためのフレームワークを導入します。
我々のアプローチの主な洞察は、観測データに存在する格差の定量化と、基礎となる、しばしば観測されていない、因果的なメカニズムの収集を結びつけることである。
本研究は,文献中の異なる基準間の関係を整理し,説明するための最初の体系的試みであるフェアネスマップにおいて,本研究の成果を左右するものである。
論文 参考訳(メタデータ) (2022-07-23T01:06:34Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Identifiability of Causal-based Fairness Notions: A State of the Art [4.157415305926584]
機械学習アルゴリズムは、偏見のある結果/予測を生成することができ、通常は少数派や少数民族に対するものである。
本論文は,機械学習の公正性に特に関係する主要な識別可能性の結果をまとめたものである。
論文 参考訳(メタデータ) (2022-03-11T13:10:32Z) - Promises and Challenges of Causality for Ethical Machine Learning [2.1946447418179664]
我々は「潜在的成果の枠組み」に基づく因果フェアネスの適切な適用条件を策定する。
我々は、因果的公平性文学においてしばしば無視される因果的推論の重要な側面を強調した。
このような介入の概念化は因果的仮定の妥当性を評価する上で重要であると我々は主張する。
論文 参考訳(メタデータ) (2022-01-26T00:04:10Z) - Machine learning fairness notions: Bridging the gap with real-world
applications [4.157415305926584]
フェアネスは、機械学習予測システムが特定の個人やサブ人口全体に対して差別しないことを保証する重要な要件として現れた。
本稿では,多くの事例とシナリオを通じて,公平性の概念間の微妙な関係について述べる。
論文 参考訳(メタデータ) (2020-06-30T13:01:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。