論文の概要: Causal Fair Machine Learning via Rank-Preserving Interventional
Distributions
- arxiv url: http://arxiv.org/abs/2307.12797v1
- Date: Mon, 24 Jul 2023 13:46:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-25 14:12:46.227281
- Title: Causal Fair Machine Learning via Rank-Preserving Interventional
Distributions
- Title(参考訳): ランク保存型干渉分布を用いた因果フェア機械学習
- Authors: Ludwig Bothmann, Susanne Dandl, Michael Schomaker
- Abstract要約: 決定は、等しい個人が平等に扱われ、不平等に扱われる場合、公平に定義することができる。
自動意思決定システムにおける不公平を緩和する機械学習モデルを設計するタスクには、因果思考を含める必要がある。
我々は、個人が架空の、規範的に望まれる(FiND)世界で等しければ、規範的に等しくなると定義する。
我々のワープアプローチは、最も差別された個人を効果的に識別し、不公平を緩和することを示します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A decision can be defined as fair if equal individuals are treated equally
and unequals unequally. Adopting this definition, the task of designing machine
learning models that mitigate unfairness in automated decision-making systems
must include causal thinking when introducing protected attributes. Following a
recent proposal, we define individuals as being normatively equal if they are
equal in a fictitious, normatively desired (FiND) world, where the protected
attribute has no (direct or indirect) causal effect on the target. We propose
rank-preserving interventional distributions to define an estimand of this FiND
world and a warping method for estimation. Evaluation criteria for both the
method and resulting model are presented and validated through simulations and
empirical data. With this, we show that our warping approach effectively
identifies the most discriminated individuals and mitigates unfairness.
- Abstract(参考訳): 同一の個人が平等に扱われ、不平等に扱われる場合には、決定は公平と定義できる。
この定義を採用することで、自動意思決定システムにおける不公平性を緩和する機械学習モデルを設計するタスクには、保護属性を導入する際の因果思考を含める必要がある。
最近の提案に続き、保護属性がターゲットに(直接的または間接的な)因果効果を持たない架空の、規範的に望まれる(FiND)世界で等しい場合、個人は規範的に等しいと定義する。
本研究では,この発見世界の推定値を定義するためのランク保存的介入分布と,推定のためのウォーピング法を提案する。
本手法と結果モデルの評価基準をシミュレーションおよび実証データを用いて提示し,検証する。
これにより、我々のワープアプローチは、最も差別された個人を効果的に識別し、不公平を緩和することを示す。
関連論文リスト
- Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Aleatoric and Epistemic Discrimination: Fundamental Limits of Fairness
Interventions [14.507365530231025]
機械学習モデルは、モデル開発時の選択とデータ固有のバイアスにより、特定の人口群で過小評価される可能性がある。
フェアネス制約下でのモデルの性能限界を決定することにより,アレータリック判別の定量化を行う。
本研究では, 公平性制約を適用した際のモデルの精度と, アレタリック判別による限界とのギャップとして, てんかんの判別を定量化する。
論文 参考訳(メタデータ) (2023-01-27T15:38:20Z) - Marrying Fairness and Explainability in Supervised Learning [0.0]
我々は、保護属性の直接的な因果効果として直接識別を定式化する。
我々は、最先端のフェアラーニング手法は、関連性や逆の差別によって差別を誘発することができることを発見した。
本稿では,保護された属性がシステムの出力に与える影響を無効にするとともに,残りの特徴の影響を保存することを提案する。
論文 参考訳(メタデータ) (2022-04-06T17:26:58Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Personalized Trajectory Prediction via Distribution Discrimination [78.69458579657189]
トラリミー予測は将来の力学のマルチモーダルな性質を捉えるジレンマと対立する。
本研究では,パーソナライズされた動作パターンを予測するDisDisDis(Disdis)手法を提案する。
本手法は,プラグイン・アンド・プレイモジュールとして既存のマルチモーダル予測モデルと統合することができる。
論文 参考訳(メタデータ) (2021-07-29T17:42:12Z) - Distributive Justice and Fairness Metrics in Automated Decision-making:
How Much Overlap Is There? [0.0]
機会の平等を実践する指標は、資源割り当てが保存性に基づいている場合にのみ適用されるが、アロケーションが平等主義、十分性、優先順位に関する懸念を反映すべきときに失敗することを示す。
予測タスクと意思決定タスクをきれいに区別することで、公平な機械学習の研究は分散的正義に関する豊かな文献をよりうまく活用できると論じている。
論文 参考訳(メタデータ) (2021-05-04T12:09:26Z) - Adversarial Learning for Counterfactual Fairness [15.302633901803526]
近年、フェアネスは機械学習研究コミュニティにおいて重要なトピックとなっている。
我々は,MDDの罰則よりも強力な推論を可能にする,対向的ニューラルネットワークアプローチに頼ることを提案する。
実験では、離散的および連続的な設定の両方に対して、対実的公正性の観点から、顕著な改善が示された。
論文 参考訳(メタデータ) (2020-08-30T09:06:03Z) - Towards Threshold Invariant Fair Classification [10.317169065327546]
本稿では、決定しきい値とは無関係に、異なるグループ間で公平な性能を強制する、しきい値不変公平性の概念を紹介する。
実験結果から,提案手法は,公平性を実現するために設計された機械学習モデルの閾値感度を緩和するために有効であることが示された。
論文 参考訳(メタデータ) (2020-06-18T16:49:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。