論文の概要: Identifiability of Causal-based Fairness Notions: A State of the Art
- arxiv url: http://arxiv.org/abs/2203.05900v1
- Date: Fri, 11 Mar 2022 13:10:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-14 13:56:49.082369
- Title: Identifiability of Causal-based Fairness Notions: A State of the Art
- Title(参考訳): 因果ベースフェアネス概念の識別可能性--芸術の現状
- Authors: Karima Makhlouf, Sami Zhioua, Catuscia Palamidessi
- Abstract要約: 機械学習アルゴリズムは、偏見のある結果/予測を生成することができ、通常は少数派や少数民族に対するものである。
本論文は,機械学習の公正性に特に関係する主要な識別可能性の結果をまとめたものである。
- 参考スコア(独自算出の注目度): 4.157415305926584
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Machine learning algorithms can produce biased outcome/prediction, typically,
against minorities and under-represented sub-populations. Therefore, fairness
is emerging as an important requirement for the large scale application of
machine learning based technologies. The most commonly used fairness notions
(e.g. statistical parity, equalized odds, predictive parity, etc.) are
observational and rely on mere correlation between variables. These notions
fail to identify bias in case of statistical anomalies such as Simpson's or
Berkson's paradoxes. Causality-based fairness notions (e.g. counterfactual
fairness, no-proxy discrimination, etc.) are immune to such anomalies and hence
more reliable to assess fairness. The problem of causality-based fairness
notions, however, is that they are defined in terms of quantities (e.g. causal,
counterfactual, and path-specific effects) that are not always measurable. This
is known as the identifiability problem and is the topic of a large body of
work in the causal inference literature. This paper is a compilation of the
major identifiability results which are of particular relevance for machine
learning fairness. The results are illustrated using a large number of examples
and causal graphs. The paper would be of particular interest to fairness
researchers, practitioners, and policy makers who are considering the use of
causality-based fairness notions as it summarizes and illustrates the major
identifiability results
- Abstract(参考訳): 機械学習アルゴリズムは、偏りのある結果/予測を生成することができる。
したがって、機械学習ベースのテクノロジーを大規模に適用するための重要な要件として公正性が生まれている。
最も一般的に用いられるフェアネスの概念(統計パリティ、等化オッズ、予測パリティなど)は観測的であり、変数間の相関のみに依存する。
これらの概念はシンプソンやバークソンのパラドックスのような統計的異常の場合はバイアスを識別できない。
因果性に基づく公平性の概念(例えば、反事実的公平性、非プロキシ識別など)はそのような異常に免疫があり、したがって公平性を評価するのがより信頼できる。
しかし因果性に基づく公平性の概念の問題は、必ずしも測定できない量(因果性、反事実性、経路特異的効果など)で定義されることである。
これは識別可能性問題として知られ、因果推論文学における大きな研究の話題となっている。
本稿では,機械学習の公平性に特に寄与する主要な識別可能性の結果をまとめた。
結果は、多数の例と因果グラフを使って示されます。
この論文は、因果関係に基づく公正概念の使用を検討している公正研究者、実践者、政策立案者にとって特に興味を持ち、主要な識別可能性の結果を要約し、示すであろう。
関連論文リスト
- Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Reconciling Predictive and Statistical Parity: A Causal Approach [68.59381759875734]
本稿では,予測パリティに付随する公平度対策のための因果分解式を提案する。
統計的および予測パリティの概念は、実際には互いに排他的ではなく、相補的であり、公正の概念のスペクトルにまたがっていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:23:22Z) - Fairness and Randomness in Machine Learning: Statistical Independence
and Relativization [10.482805367361818]
我々は、機械学習で日常的に使われている公平性とランダム性の概念における統計的独立性の役割を識別する。
我々は、ランダム性と公正性は、機械学習におけるモデリング仮定として、その性質を反映すべきであると主張している。
論文 参考訳(メタデータ) (2022-07-27T15:55:05Z) - Causal Discovery for Fairness [3.3861246056563616]
因果的発見アプローチの違いが因果的モデルにどのように影響するか,因果的モデル間の微妙な差異が公平さ/差別的結論にどのように影響するかを示す。
本研究の主な目的は,因果関係を用いて公平に対処する因果発見ステップの重要性を明らかにすることである。
論文 参考訳(メタデータ) (2022-06-14T08:40:40Z) - Counterfactual Fairness with Partially Known Causal Graph [85.15766086381352]
本稿では,真の因果グラフが不明な場合に,対実フェアネスの概念を実現するための一般的な手法を提案する。
特定の背景知識が提供されると、正の因果グラフが完全に知られているかのように、反ファクト的公正性を達成することができる。
論文 参考訳(メタデータ) (2022-05-27T13:40:50Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in Regression Machine Learning Problems [46.93320580613236]
回帰問題に対する正規化(FaiReg)に基づく単純かつ効果的な手法を提案する。
データバランシングと敵対的トレーニングという,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減できる優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - Promises and Challenges of Causality for Ethical Machine Learning [2.1946447418179664]
我々は「潜在的成果の枠組み」に基づく因果フェアネスの適切な適用条件を策定する。
我々は、因果的公平性文学においてしばしば無視される因果的推論の重要な側面を強調した。
このような介入の概念化は因果的仮定の妥当性を評価する上で重要であると我々は主張する。
論文 参考訳(メタデータ) (2022-01-26T00:04:10Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z) - Survey on Causal-based Machine Learning Fairness Notions [4.157415305926584]
本稿では,因果関係に基づくフェアネス概念の包括的リストについて検討し,実世界のシナリオにおける適用性について検討する。
因果関係に基づく公平性の概念の大部分は、観測不可能な量という観点で定義されるため、実際にはそれらの量を計算するか、見積もる必要がある。
論文 参考訳(メタデータ) (2020-10-19T14:28:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。