論文の概要: Counterfactual Fairness with Partially Known Causal Graph
- arxiv url: http://arxiv.org/abs/2205.13972v1
- Date: Fri, 27 May 2022 13:40:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-30 14:44:04.453038
- Title: Counterfactual Fairness with Partially Known Causal Graph
- Title(参考訳): 部分既知因果グラフによる反事実公平性
- Authors: Aoqi Zuo, Susan Wei, Tongliang Liu, Bo Han, Kun Zhang, Mingming Gong
- Abstract要約: 本稿では,真の因果グラフが不明な場合に,対実フェアネスの概念を実現するための一般的な手法を提案する。
特定の背景知識が提供されると、正の因果グラフが完全に知られているかのように、反ファクト的公正性を達成することができる。
- 参考スコア(独自算出の注目度): 85.15766086381352
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fair machine learning aims to avoid treating individuals or sub-populations
unfavourably based on \textit{sensitive attributes}, such as gender and race.
Those methods in fair machine learning that are built on causal inference
ascertain discrimination and bias through causal effects. Though
causality-based fair learning is attracting increasing attention, current
methods assume the true causal graph is fully known. This paper proposes a
general method to achieve the notion of counterfactual fairness when the true
causal graph is unknown. To be able to select features that lead to
counterfactual fairness, we derive the conditions and algorithms to identify
ancestral relations between variables on a \textit{Partially Directed Acyclic
Graph (PDAG)}, specifically, a class of causal DAGs that can be learned from
observational data combined with domain knowledge. Interestingly, we find that
counterfactual fairness can be achieved as if the true causal graph were fully
known, when specific background knowledge is provided: the sensitive attributes
do not have ancestors in the causal graph. Results on both simulated and
real-world datasets demonstrate the effectiveness of our method.
- Abstract(参考訳): fair machine learningは、性別や人種などの \textit{sensitive attribute}に基づいて、個人やサブ人口の扱いを好ましくないようにする。
因果推論に基づく公平な機械学習におけるこれらの手法は、因果効果による差別と偏見を確実にする。
因果関係に基づく公平な学習が注目を集めているが、現在の手法では真の因果グラフが完全に知られていると仮定している。
本稿では,真の因果グラフが不明な場合,反事実的公平性の概念を実現する一般的な方法を提案する。
対物フェアネスに繋がる特徴を抽出するために,我々は,観測データからドメイン知識と組み合わせて学習可能な因果DAGのクラスである<textit{Partially Directed Acyclic Graph(PDAG)上で,変数間の祖先関係を特定する条件とアルゴリズムを導出する。
興味深いことに、特定の背景知識が提供されたとき、反事実的公平性は真の因果グラフが完全に知られているかのように達成できる: 敏感な属性は因果グラフに祖先を持たない。
シミュレーションデータと実世界データの両方の結果から,本手法の有効性が示された。
関連論文リスト
- What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - Graph Fairness Learning under Distribution Shifts [33.9878682279549]
グラフニューラルネットワーク(GNN)は、グラフ構造化データにおいて顕著なパフォーマンスを実現している。
GNNは、トレーニングデータから偏見を継承し、性別や人種などのセンシティブな属性に基づいて差別予測を行うことができる。
本稿では,異なる距離で有意な偏差を持つ多数のグラフを生成するグラフ生成器を提案する。
論文 参考訳(メタデータ) (2024-01-30T06:51:24Z) - Interventional Fairness on Partially Known Causal Graphs: A Constrained
Optimization Approach [44.48385991344273]
本稿では,真の因果グラフが部分的に知られている場合の介入の概念に基づく因果フェアネスを実現するための枠組みを提案する。
提案手法は、観測データとドメイン知識を組み合わせて学習できる因果DAGのクラスを用いて、公正な予測をモデル化することを含む。
シミュレーションと実世界の両方のデータセットの結果から,本手法の有効性が示された。
論文 参考訳(メタデータ) (2024-01-19T11:20:31Z) - Deceptive Fairness Attacks on Graphs via Meta Learning [102.53029537886314]
グラフ学習モデルにおいて、どのようにして有害な攻撃を達成すれば、バイアスを欺いて悪化させることができるのか?
本稿では,FATEというメタラーニングに基づくフレームワークを提案し,様々なフェアネス定義やグラフ学習モデルに対処する。
半教師付きノード分類のタスクにおいて,実世界のデータセットに関する広範な実験的な評価を行う。
論文 参考訳(メタデータ) (2023-10-24T09:10:14Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Fair Attribute Completion on Graph with Missing Attributes [14.950261239035882]
フェア属性補完法であるFairACを提案し,不備な属性を持つグラフに対するフェアノード埋め込みを学習する。
本手法は,公正なグラフ学習の最先端手法と比較して,精度の犠牲を少なくして,公平性を向上できることを示す。
論文 参考訳(メタデータ) (2023-02-25T04:12:30Z) - Impact Of Missing Data Imputation On The Fairness And Accuracy Of Graph
Node Classifiers [0.19573380763700707]
グラフデータ(ノード属性)インプットの文脈における公平性への影響を,埋め込みとニューラルネットワークの異なる手法を用いて解析する。
この結果から,グラフデータの公平性や,グラフの欠落を効率的に処理する方法について,貴重な知見が得られる。
論文 参考訳(メタデータ) (2022-11-01T23:16:36Z) - Identifiability of Causal-based Fairness Notions: A State of the Art [4.157415305926584]
機械学習アルゴリズムは、偏見のある結果/予測を生成することができ、通常は少数派や少数民族に対するものである。
本論文は,機械学習の公正性に特に関係する主要な識別可能性の結果をまとめたものである。
論文 参考訳(メタデータ) (2022-03-11T13:10:32Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。