論文の概要: Interventional Fairness on Partially Known Causal Graphs: A Constrained
Optimization Approach
- arxiv url: http://arxiv.org/abs/2401.10632v2
- Date: Fri, 8 Mar 2024 10:51:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 22:45:23.586793
- Title: Interventional Fairness on Partially Known Causal Graphs: A Constrained
Optimization Approach
- Title(参考訳): 部分既知の因果グラフに対する介入的公平性:制約付き最適化アプローチ
- Authors: Aoqi Zuo, Yiqing Li, Susan Wei, Mingming Gong
- Abstract要約: 本稿では,真の因果グラフが部分的に知られている場合の介入の概念に基づく因果フェアネスを実現するための枠組みを提案する。
提案手法は、観測データとドメイン知識を組み合わせて学習できる因果DAGのクラスを用いて、公正な予測をモデル化することを含む。
シミュレーションと実世界の両方のデータセットの結果から,本手法の有効性が示された。
- 参考スコア(独自算出の注目度): 44.48385991344273
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Fair machine learning aims to prevent discrimination against individuals or
sub-populations based on sensitive attributes such as gender and race. In
recent years, causal inference methods have been increasingly used in fair
machine learning to measure unfairness by causal effects. However, current
methods assume that the true causal graph is given, which is often not true in
real-world applications. To address this limitation, this paper proposes a
framework for achieving causal fairness based on the notion of interventions
when the true causal graph is partially known. The proposed approach involves
modeling fair prediction using a Partially Directed Acyclic Graph (PDAG),
specifically, a class of causal DAGs that can be learned from observational
data combined with domain knowledge. The PDAG is used to measure causal
fairness, and a constrained optimization problem is formulated to balance
between fairness and accuracy. Results on both simulated and real-world
datasets demonstrate the effectiveness of this method.
- Abstract(参考訳): fair machine learningは、性別や人種といった繊細な属性に基づく個人やサブ人口に対する差別を防ぐことを目的としている。
近年、因果推論手法は、因果効果によって不公平さを測定するために、公正な機械学習でますます利用されてきた。
しかし、現在の手法では真の因果グラフが与えられたと仮定しており、現実のアプリケーションでは当てはまらないことが多い。
この制限に対処するために,本論文では,真因果グラフが部分的に知られている場合の介入の概念に基づく因果公平性を実現する枠組みを提案する。
提案手法は,部分指向非巡回グラフ(PDAG)を用いて,観測データとドメイン知識を組み合わせた因果DAGのクラスを用いて,公正な予測をモデル化することを含む。
PDAGは因果フェアネスを測定するために使用され、公正性と精度のバランスをとるために制約付き最適化問題を定式化する。
シミュレーションと実世界の両方のデータセットの結果から,本手法の有効性が示された。
関連論文リスト
- Fair GLASSO: Estimating Fair Graphical Models with Unbiased Statistical Behavior [31.92791228859847]
多くの現実世界のモデルは、データのバイアスによって不公平な差別行動を示す。
統計的類似性のバランスを促進するために,2つのバイアス指標の形でグラフィカルモデルの公平性を導入する。
スパースガウス精度行列を得るための正規化グラフィカルラッソであるFair GLASSOを提案する。
論文 参考訳(メタデータ) (2024-06-13T18:07:04Z) - Fairness-Accuracy Trade-Offs: A Causal Perspective [58.06306331390586]
我々は、初めて因果レンズから公正性と正確性の間の張力を分析する。
因果的制約を強制することは、しばしば人口集団間の格差を減少させることを示す。
因果制約付きフェアラーニングのための新しいニューラルアプローチを導入する。
論文 参考訳(メタデータ) (2024-05-24T11:19:52Z) - Fairness Explainability using Optimal Transport with Applications in
Image Classification [0.46040036610482665]
機械学習アプリケーションにおける差別の原因を明らかにするための包括的アプローチを提案する。
We leverage Wasserstein barycenters to achieve fair predictions and introduce an extension to pinpoint bias-associated region。
これにより、各特徴がバイアスに影響を及ぼすかどうかを測定するために強制的公正性を使用する凝集系を導出することができる。
論文 参考訳(メタデータ) (2023-08-22T00:10:23Z) - Causal Fair Machine Learning via Rank-Preserving Interventional Distributions [0.5062312533373299]
我々は、個人が架空の、規範的に望まれる(FiND)世界で等しければ、規範的に等しくなると定義する。
本研究では,それが保持する特定のFiND世界を定義するために,ランク保存的介入分布を提案する。
我々のワープアプローチは、最も差別された個人を効果的に識別し、不公平を緩和することを示します。
論文 参考訳(メタデータ) (2023-07-24T13:46:50Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Counterfactual Fairness with Partially Known Causal Graph [85.15766086381352]
本稿では,真の因果グラフが不明な場合に,対実フェアネスの概念を実現するための一般的な手法を提案する。
特定の背景知識が提供されると、正の因果グラフが完全に知られているかのように、反ファクト的公正性を達成することができる。
論文 参考訳(メタデータ) (2022-05-27T13:40:50Z) - Double Robust Representation Learning for Counterfactual Prediction [68.78210173955001]
そこで本稿では, 対実予測のための2次ロバスト表現を学習するための, スケーラブルな新しい手法を提案する。
我々は、個々の治療効果と平均的な治療効果の両方に対して、堅牢で効率的な対実的予測を行う。
このアルゴリズムは,実世界の最先端技術と合成データとの競合性能を示す。
論文 参考訳(メタデータ) (2020-10-15T16:39:26Z) - Improving Fair Predictions Using Variational Inference In Causal Models [8.557308138001712]
アルゴリズム的公正の重要性は、機械学習が人々の生活に与える影響の増加とともに増大する。
フェアネス指標に関する最近の研究は、フェアネス制約における因果推論の必要性を示している。
本研究は、我々の倫理的・法的境界を尊重する機械学習技術に貢献することを目的としている。
論文 参考訳(メタデータ) (2020-08-25T08:27:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。