論文の概要: Learning for Counterfactual Fairness from Observational Data
- arxiv url: http://arxiv.org/abs/2307.08232v1
- Date: Mon, 17 Jul 2023 04:08:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-18 14:54:49.711697
- Title: Learning for Counterfactual Fairness from Observational Data
- Title(参考訳): 観測データによる対物フェアネスの学習
- Authors: Jing Ma, Ruocheng Guo, Aidong Zhang, Jundong Li
- Abstract要約: 公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
- 参考スコア(独自算出の注目度): 62.43249746968616
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness-aware machine learning has attracted a surge of attention in many
domains, such as online advertising, personalized recommendation, and social
media analysis in web applications. Fairness-aware machine learning aims to
eliminate biases of learning models against certain subgroups described by
certain protected (sensitive) attributes such as race, gender, and age. Among
many existing fairness notions, counterfactual fairness is a popular notion
defined from a causal perspective. It measures the fairness of a predictor by
comparing the prediction of each individual in the original world and that in
the counterfactual worlds in which the value of the sensitive attribute is
modified. A prerequisite for existing methods to achieve counterfactual
fairness is the prior human knowledge of the causal model for the data.
However, in real-world scenarios, the underlying causal model is often unknown,
and acquiring such human knowledge could be very difficult. In these scenarios,
it is risky to directly trust the causal models obtained from information
sources with unknown reliability and even causal discovery methods, as
incorrect causal models can consequently bring biases to the predictor and lead
to unfair predictions. In this work, we address the problem of counterfactually
fair prediction from observational data without given causal models by
proposing a novel framework CLAIRE. Specifically, under certain general
assumptions, CLAIRE effectively mitigates the biases from the sensitive
attribute with a representation learning framework based on counterfactual data
augmentation and an invariant penalty. Experiments conducted on both synthetic
and real-world datasets validate the superiority of CLAIRE in both
counterfactual fairness and prediction performance.
- Abstract(参考訳): fairness-aware machine learningは、オンライン広告、パーソナライズドレコメンデーション、webアプリケーションにおけるソーシャルメディア分析など、多くのドメインで注目を集めている。
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
多くの既存の公正概念の中で、反事実公正は因果的観点から定義される一般的な概念である。
原世界の個々の個体の予測と、センシティブな属性の値が修正された対物世界の予測を比較することで、予測者の公正さを測定する。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
しかし、現実のシナリオでは、根底にある因果モデルはしばしば不明であり、そのような人間の知識の獲得は非常に困難である。
これらのシナリオでは、誤った因果関係モデルが予測者にバイアスをもたらし、不当な予測をもたらすため、未知の信頼性を持つ情報ソースから得られた因果関係モデルや因果関係の発見方法を直接信頼することは危険である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
具体的には、特定の一般的な仮定の下で、CLAIREは、反実データ拡張と不変ペナルティに基づく表現学習フレームワークにより、センシティブな属性からのバイアスを効果的に軽減する。
合成および実世界の両方のデータセットで行った実験は、対実的公正性と予測性能の両方においてCLAIREの優位性を検証した。
関連論文リスト
- Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - FairPFN: Transformers Can do Counterfactual Fairness [41.052676173417574]
因果的および反事実的公正性は、法的な基準と密接に一致した公正性を定義する直感的な方法を提供する。
本研究は、FairPFNと呼ばれる変圧器を学習するために、文脈学習(ICL)および事前適応ネットワーク(PFN)における最近の研究に基づいている。
このモデルは、観測データから直接保護属性の因果効果を除去するために、合成公正データを用いて事前訓練される。
論文 参考訳(メタデータ) (2024-07-08T08:36:44Z) - Counterfactual Fairness for Predictions using Generative Adversarial
Networks [28.65556399421874]
我々は, 対実フェアネスの下で予測を行うための, GCFN (Generative Counterfactual Fairness Network) と呼ばれる新しいディープニューラルネットワークを開発した。
本手法は, 対実的公正性の概念を保証するために数学的に保証されている。
論文 参考訳(メタデータ) (2023-10-26T17:58:39Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Fair Inference for Discrete Latent Variable Models [12.558187319452657]
デュエルケアなしでデータに基づいて訓練された機械学習モデルは、特定の人口に対して不公平で差別的な行動を示すことが多い。
本研究では,変動分布に公平なペナルティを含む離散潜伏変数に対して,公平な変分推論手法を開発した。
提案手法の一般化と実世界への影響の可能性を示すため,刑事司法リスク評価のための特別目的グラフィカルモデルを構築した。
論文 参考訳(メタデータ) (2022-09-15T04:54:21Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Prisoners of Their Own Devices: How Models Induce Data Bias in
Performative Prediction [4.874780144224057]
偏見のあるモデルは、社会の特定のグループに不均等に害を与える決定を下すことができる。
多くの作業は静的ML環境での不公平さを測定することに費やされているが、動的でパフォーマンスのよい予測は行っていない。
本稿では,データのバイアスを特徴付ける分類法を提案する。
論文 参考訳(メタデータ) (2022-06-27T10:56:04Z) - Measuring Fairness of Text Classifiers via Prediction Sensitivity [63.56554964580627]
加速度予測感度は、入力特徴の摂動に対するモデルの予測感度に基づいて、機械学習モデルの公正度を測定する。
この計量は、群フェアネス(統計パリティ)と個人フェアネスという特定の概念と理論的に関連付けられることを示す。
論文 参考訳(メタデータ) (2022-03-16T15:00:33Z) - Cross-model Fairness: Empirical Study of Fairness and Ethics Under Model Multiplicity [10.144058870887061]
1つの予測器が等しく機能するモデルのグループからアドホックに選択された場合、個人は害を受ける可能性があると我々は主張する。
これらの不公平性は実生活で容易に発見でき、技術的手段だけで緩和することは困難である可能性が示唆された。
論文 参考訳(メタデータ) (2022-03-14T14:33:39Z) - Representative & Fair Synthetic Data [68.8204255655161]
公平性制約を自己監督学習プロセスに組み込むためのフレームワークを提示する。
私たちはuci成人国勢調査データセットの代表者および公正版を作成します。
我々は、代表的かつ公正な合成データを将来有望なビルディングブロックとみなし、歴史的世界ではなく、私たちが生きようとしている世界についてアルゴリズムを教える。
論文 参考訳(メタデータ) (2021-04-07T09:19:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。