論文の概要: Counterfactual Fairness with Disentangled Causal Effect Variational
Autoencoder
- arxiv url: http://arxiv.org/abs/2011.11878v2
- Date: Wed, 9 Dec 2020 09:46:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 12:26:17.512586
- Title: Counterfactual Fairness with Disentangled Causal Effect Variational
Autoencoder
- Title(参考訳): 遠絡因果効果変分オートエンコーダによる対向フェアネス
- Authors: Hyemi Kim, Seungjae Shin, JoonHo Jang, Kyungwoo Song, Weonyoung Joo,
Wanmo Kang, Il-Chul Moon
- Abstract要約: 本稿では、公平な分類の問題を解決するために、DCEVAE(Disentangled Causal Effect Variational Autoencoder)を提案する。
本手法は,完全な因果グラフを使わずに,全効果と対実効果を推定する。
- 参考スコア(独自算出の注目度): 26.630680698825632
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The problem of fair classification can be mollified if we develop a method to
remove the embedded sensitive information from the classification features.
This line of separating the sensitive information is developed through the
causal inference, and the causal inference enables the counterfactual
generations to contrast the what-if case of the opposite sensitive attribute.
Along with this separation with the causality, a frequent assumption in the
deep latent causal model defines a single latent variable to absorb the entire
exogenous uncertainty of the causal graph. However, we claim that such
structure cannot distinguish the 1) information caused by the intervention
(i.e., sensitive variable) and 2) information correlated with the intervention
from the data. Therefore, this paper proposes Disentangled Causal Effect
Variational Autoencoder (DCEVAE) to resolve this limitation by disentangling
the exogenous uncertainty into two latent variables: either 1) independent to
interventions or 2) correlated to interventions without causality.
Particularly, our disentangling approach preserves the latent variable
correlated to interventions in generating counterfactual examples. We show that
our method estimates the total effect and the counterfactual effect without a
complete causal graph. By adding a fairness regularization, DCEVAE generates a
counterfactual fair dataset while losing less original information. Also,
DCEVAE generates natural counterfactual images by only flipping sensitive
information. Additionally, we theoretically show the differences in the
covariance structures of DCEVAE and prior works from the perspective of the
latent disentanglement.
- Abstract(参考訳): 分類特徴から組み込まれた機密情報を除去する手法を開発しれば,公平な分類の問題は解決できる。
このセンシティブ情報を分離する線は因果推論によって展開され、因果推論により、逆のセンシティブ属性のWhat-ifの場合と対比することができる。
この因果関係との分離とともに、深い潜在因果モデルにおける頻繁な仮定は、因果グラフの外部の不確かさ全体を吸収する単一の潜在変数を定義する。
しかし、そのような構造は区別できないと主張する。
1)介入によって引き起こされる情報(敏感な変数)と
2)データからの介入と相関した情報。
そこで本稿では,外因性不確かさを2つの潜伏変数に解き放つことにより,この制限を解決するために,DCEVAE(Disentangled Causal Effect Variational Autoencoder)を提案する。
1)介入に依存しないか
2) 因果関係のない介入と相関した。
特に,提案手法は, 対実例の生成における介入と相関する潜伏変数を保持する。
本手法は,完全な因果グラフを使わずに,全効果と対実効果を推定する。
フェアネス正則化を追加することで、DCEVAEは偽のフェアデータセットを生成し、元の情報が少なくなる。
また、DCEVAEは、感度情報のみを反転させることで、自然な偽物画像を生成する。
さらに,DCEVAEの共分散構造と先行研究との相違点を,潜伏な絡み合いの観点から理論的に示す。
関連論文リスト
- Identifiability Guarantees for Causal Disentanglement from Soft
Interventions [26.435199501882806]
因果解離は因果モデルを通して相互に関係する潜伏変数を用いてデータの表現を明らかにすることを目的としている。
本稿では,各介入が潜伏変数のメカニズムを変えることにより,未ペアの観測データと介入データが利用可能となるシナリオに焦点を当てる。
因果変数が完全に観測されると、忠実性の仮定の下で因果モデルを特定するために統計的に一貫したアルゴリズムが開発された。
論文 参考訳(メタデータ) (2023-07-12T15:39:39Z) - A Causal Ordering Prior for Unsupervised Representation Learning [27.18951912984905]
因果表現学習(Causal representation learning)は、データセットの変動の要因は、実際には因果関係にあると主張している。
本稿では,遅延付加雑音モデルを用いたデータ生成過程を考慮した,教師なし表現学習手法を提案する。
論文 参考訳(メタデータ) (2023-07-11T18:12:05Z) - Nonparametric Identifiability of Causal Representations from Unknown
Interventions [63.1354734978244]
本研究では, 因果表現学習, 潜伏因果変数を推定するタスク, およびそれらの変数の混合から因果関係を考察する。
我々のゴールは、根底にある真理潜入者とその因果グラフの両方を、介入データから解決不可能なあいまいさの集合まで識別することである。
論文 参考訳(メタデータ) (2023-06-01T10:51:58Z) - Towards Causal Representation Learning and Deconfounding from Indefinite
Data [17.793702165499298]
非統計データ(画像、テキストなど)は、従来の因果データとプロパティやメソッドの点で重大な対立に遭遇する。
2つの新しい視点から因果データを再定義し、3つのデータパラダイムを提案する。
非定値データから因果表現を学習するための動的変分推論モデルとして,上記の設計を実装した。
論文 参考訳(メタデータ) (2023-05-04T08:20:37Z) - Variational Causal Networks: Approximate Bayesian Inference over Causal
Structures [132.74509389517203]
離散DAG空間上の自己回帰分布をモデル化したパラメトリック変分族を導入する。
実験では,提案した変分後部が真の後部を良好に近似できることを示した。
論文 参考訳(メタデータ) (2021-06-14T17:52:49Z) - Adversarial Robustness through the Lens of Causality [105.51753064807014]
ディープニューラルネットワークの敵対的脆弱性は、機械学習において大きな注目を集めている。
我々は、因果関係を敵対的脆弱性の軽減に組み込むことを提案する。
我々の手法は、敵の脆弱性を緩和するために因果性を利用する最初の試みと見なすことができる。
論文 参考訳(メタデータ) (2021-06-11T06:55:02Z) - Disentangling Observed Causal Effects from Latent Confounders using
Method of Moments [67.27068846108047]
我々は、軽度の仮定の下で、識別性と学習可能性に関する保証を提供する。
我々は,線形制約付き結合テンソル分解に基づく効率的なアルゴリズムを開発し,スケーラブルで保証可能な解を得る。
論文 参考訳(メタデータ) (2021-01-17T07:48:45Z) - Causal Autoregressive Flows [4.731404257629232]
自己回帰正規化フローの単純なファミリーと同定可能な因果モデルとの本質的な対応を強調した。
我々は、自己回帰フローアーキテクチャが、因果順序に類似した変数の順序を定義しているという事実を利用して、様々な因果推論タスクを実行するのに適していることを示す。
論文 参考訳(メタデータ) (2020-11-04T13:17:35Z) - Latent Causal Invariant Model [128.7508609492542]
現在の教師付き学習は、データ適合プロセス中に急激な相関を学習することができる。
因果予測を求める潜在因果不変モデル(LaCIM)を提案する。
論文 参考訳(メタデータ) (2020-11-04T10:00:27Z) - CausalVAE: Structured Causal Disentanglement in Variational Autoencoder [52.139696854386976]
変分オートエンコーダ(VAE)の枠組みは、観測から独立した因子をアンタングルするために一般的に用いられる。
本稿では, 因果内因性因子を因果内因性因子に変換する因果層を含むVOEベースの新しいフレームワークCausalVAEを提案する。
その結果、CausalVAEが学習した因果表現は意味論的に解釈可能であり、DAG(Directed Acyclic Graph)としての因果関係は精度良く同定された。
論文 参考訳(メタデータ) (2020-04-18T20:09:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。