論文の概要: Learning Counterfactually Fair Models via Improved Generation with Neural Causal Models
- arxiv url: http://arxiv.org/abs/2502.12796v1
- Date: Tue, 18 Feb 2025 11:59:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-19 14:06:21.857497
- Title: Learning Counterfactually Fair Models via Improved Generation with Neural Causal Models
- Title(参考訳): ニューラル因果モデルを用いた改良生成による対物フェアモデルの学習
- Authors: Krishn Vishwas Kher, Aditya Varun V, Shantanu Das, SakethaNath Jagarlapudi,
- Abstract要約: 機械学習モデルを現実世界のアプリケーションにデプロイする際の主な関心事のひとつは、公平性である。
既存のカウンターファクトフェアネスの実施方法には2つの制限があるようである。
本稿では,反現実的なサンプルを生成するためにニューラル因果モデルを提案する。
また,MMDをベースとした新たな正規化手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: One of the main concerns while deploying machine learning models in real-world applications is fairness. Counterfactual fairness has emerged as an intuitive and natural definition of fairness. However, existing methodologies for enforcing counterfactual fairness seem to have two limitations: (i) generating counterfactual samples faithful to the underlying causal graph, and (ii) as we argue in this paper, existing regularizers are mere proxies and do not directly enforce the exact definition of counterfactual fairness. In this work, our aim is to mitigate both issues. Firstly, we propose employing Neural Causal Models (NCMs) for generating the counterfactual samples. For implementing the abduction step in NCMs, the posteriors of the exogenous variables need to be estimated given a counterfactual query, as they are not readily available. As a consequence, $\mathcal{L}_3$ consistency with respect to the underlying causal graph cannot be guaranteed in practice due to the estimation errors involved. To mitigate this issue, we propose a novel kernel least squares loss term that enforces the $\mathcal{L}_3$ constraints explicitly. Thus, we obtain an improved counterfactual generation suitable for the counterfactual fairness task. Secondly, we propose a new MMD-based regularizer term that explicitly enforces the counterfactual fairness conditions into the base model while training. We show an improved trade-off between counterfactual fairness and generalization over existing baselines on synthetic and benchmark datasets.
- Abstract(参考訳): 機械学習モデルを現実世界のアプリケーションにデプロイする際の主な関心事のひとつは、公平性である。
カウンターファクトフェアネスは、直感的で自然なフェアネスの定義として現れてきた。
しかし、対実公正を強制する既存の手法には、以下の2つの制限があるようである。
一 基礎となる因果グラフに忠実な反事実サンプルを作成すること。
(二)本論文で論じているように、既存の正則化器は単なるプロキシであり、反事実公正の正確な定義を直接強制するものではない。
この作業では、両方の問題を緩和することを目的としています。
まず,ニューラル因果モデル (NCM) を用いて反実例を生成することを提案する。
NCMにおける退行ステップを実装するには、外因性変数の後部は、容易には利用できないため、逆ファクトクエリによって推定する必要がある。
結果として、基礎となる因果グラフに対する$\mathcal{L}_3$一貫性は、実際に発生する推定誤差のために保証できない。
この問題を緩和するために、$\mathcal{L}_3$の制約を明示的に適用した新しいカーネル最小二乗損失項を提案する。
そこで我々は, 対物フェアネスタスクに適した改良された対物生成を得る。
次に,MDDに基づく新たな正規化手法を提案する。
合成およびベンチマークデータセット上の既存のベースラインに対する対実的公正性と一般化の間のトレードオフの改善を示す。
関連論文リスト
- Editable Fairness: Fine-Grained Bias Mitigation in Language Models [52.66450426729818]
個々人の社会的偏見をきめ細かなキャリブレーションを可能にする新しいデバイアス・アプローチであるFairness Stamp(FAST)を提案する。
FASTは最先端のベースラインを超え、デバイアス性能が優れている。
これは、大きな言語モデルにおける公平性を達成するためのきめ細かいデバイアス戦略の可能性を強調している。
論文 参考訳(メタデータ) (2024-08-07T17:14:58Z) - Causal Context Connects Counterfactual Fairness to Robust Prediction and
Group Fairness [15.83823345486604]
我々は、公正性と正確性の間に根本的なトレードオフがないことを示すことによって、事実的公正を動機付けます。
対実フェアネスは、比較的単純なグループフェアネスの測定によってテストされることがある。
論文 参考訳(メタデータ) (2023-10-30T16:07:57Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fairness Reprogramming [42.65700878967251]
モデル再プログラミング手法を取り入れたFairRe Programと呼ばれる新しい汎用フェアネス学習パラダイムを提案する。
具体的には、FairRe Programはモデルを変更することができず、フェアネストリガと呼ばれる一連の摂動を入力に追加するケースについて検討している。
我々は,固定MLモデルの出力予測において,公平性トリガが効果的に人口統計バイアスを曖昧にすることができることを理論的および実証的に示す。
論文 参考訳(メタデータ) (2022-09-21T09:37:00Z) - FETA: Fairness Enforced Verifying, Training, and Predicting Algorithms
for Neural Networks [9.967054059014691]
ニューラルネットワークモデルの個々の公正性を検証し、トレーニングし、保証する問題について検討する。
フェアネスを強制する一般的なアプローチは、フェアネスの概念をモデルのパラメータに関する制約に変換することである。
本研究では,予測時の公正性制約を確実に実施するための逆例誘導後処理手法を開発した。
論文 参考訳(メタデータ) (2022-06-01T15:06:11Z) - Domain Adaptation meets Individual Fairness. And they get along [48.95808607591299]
アルゴリズムフェアネスの介入は、機械学習モデルが分散シフトを克服するのに役立つことを示す。
特に,個人フェアネス(IF)の適切な概念を強制することで,MLモデルの分布外精度が向上することを示す。
論文 参考訳(メタデータ) (2022-05-01T16:19:55Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z) - Does enforcing fairness mitigate biases caused by subpopulation shift? [45.51706479763718]
我々は,訓練中のアルゴリズムフェアネスの強制が,訓練対象領域における訓練されたモデルの性能を向上させるか否かを考察する。
アルゴリズムフェアネスの強制が対象領域のベイズモデルにつながる必要十分条件を導出する。
論文 参考訳(メタデータ) (2020-11-06T03:22:52Z) - Convex Fairness Constrained Model Using Causal Effect Estimators [6.414055487487486]
説明バイアスを保ちながら差別を除去するFairCEEと呼ばれる新しいモデルを考案する。
回帰および二分分類タスクにおけるFairCEEの効率的な解法を提案する。
論文 参考訳(メタデータ) (2020-02-16T03:40:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。