論文の概要: De-Biasing Generative Models using Counterfactual Methods
- arxiv url: http://arxiv.org/abs/2207.01575v1
- Date: Mon, 4 Jul 2022 16:53:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-05 15:39:53.526772
- Title: De-Biasing Generative Models using Counterfactual Methods
- Title(参考訳): 対実的手法による生成モデルのデバイアス化
- Authors: Sunay Bhat, Jeffrey Jiang, Omead Pooladzandi, Gregory Pottie
- Abstract要約: 我々はCausal Counterfactual Generative Model (CCGM) と呼ばれる新しいデコーダベースのフレームワークを提案する。
提案手法は,因果関係の忠実さを強調するために,因果関係の潜在空間VAEモデルと特定の修正を加えたものである。
因果的学習と符号化/復号化が因果的介入の質をいかに高めるかを検討する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Variational autoencoders (VAEs) and other generative methods have garnered
growing interest not just for their generative properties but also for the
ability to dis-entangle a low-dimensional latent variable space. However, few
existing generative models take causality into account. We propose a new
decoder based framework named the Causal Counterfactual Generative Model
(CCGM), which includes a partially trainable causal layer in which a part of a
causal model can be learned without significantly impacting reconstruction
fidelity. By learning the causal relationships between image semantic labels or
tabular variables, we can analyze biases, intervene on the generative model,
and simulate new scenarios. Furthermore, by modifying the causal structure, we
can generate samples outside the domain of the original training data and use
such counterfactual models to de-bias datasets. Thus, datasets with known
biases can still be used to train the causal generative model and learn the
causal relationships, but we can produce de-biased datasets on the generative
side. Our proposed method combines a causal latent space VAE model with
specific modification to emphasize causal fidelity, enabling finer control over
the causal layer and the ability to learn a robust intervention framework. We
explore how better disentanglement of causal learning and encoding/decoding
generates higher causal intervention quality. We also compare our model against
similar research to demonstrate the need for explicit generative de-biasing
beyond interventions. Our initial experiments show that our model can generate
images and tabular data with high fidelity to the causal framework and
accommodate explicit de-biasing to ignore undesired relationships in the causal
data compared to the baseline.
- Abstract(参考訳): 変分オートエンコーダ(vaes)やその他の生成法は、その生成特性だけでなく、低次元の潜在変数空間を非絡ませる能力にも関心を集めている。
しかし、因果関係を考慮した既存の生成モデルはほとんどない。
本研究では,因果モデルの一部を学習できる部分学習可能な因果層を含む,ccgm(causal counterfactual generative model)と呼ばれる新しいデコーダベースのフレームワークを提案する。
画像意味ラベルや表変数間の因果関係を学習することにより、バイアスを分析し、生成モデルに介入し、新しいシナリオをシミュレートすることができる。
さらに、因果構造を変更することで、元のトレーニングデータのドメイン外でサンプルを生成し、そのような反ファクトモデルを使ってデータセットを非バイアスにすることができる。
したがって、既知のバイアスを持つデータセットは、まだ因果生成モデルのトレーニングや因果関係の学習に使用できるが、生成側では偏りのないデータセットを生成できる。
提案手法では,因果的忠実性を重視した因果的潜在空間vaeモデルと具体的修正を組み合わせることで,因果的階層の微調整とロバストな介入フレームワークの学習を可能にする。
因果的学習と符号化/復号化が因果的介入の質を高めるかを検討する。
また、我々のモデルと類似の研究を比較し、介入以上の明確な生成脱バイアスの必要性を示す。
最初の実験では,本モデルでは,因果関係に忠実な画像や表データを生成することができ,基幹よりも因果関係を無視する明示的な非バイアス処理が可能であった。
関連論文リスト
- From Identifiable Causal Representations to Controllable Counterfactual Generation: A Survey on Causal Generative Modeling [17.074858228123706]
基本的な理論、方法論、欠点、データセット、メトリクスに重点を置いています。
フェアネス、プライバシ、アウト・オブ・ディストリビューションの一般化、精密医療、生物科学における因果生成モデルの応用について述べる。
論文 参考訳(メタデータ) (2023-10-17T05:45:32Z) - Discovering Mixtures of Structural Causal Models from Time Series Data [23.18511951330646]
基礎となる因果モデルを推測するために, MCD と呼ばれる一般的な変分推論に基づくフレームワークを提案する。
このアプローチでは、データ可能性のエビデンス-ローバウンドを最大化するエンドツーエンドのトレーニングプロセスを採用しています。
本研究では,本手法が因果発見タスクにおける最先端のベンチマークを上回ることを実証する。
論文 参考訳(メタデータ) (2023-10-10T05:13:10Z) - Less is More: Mitigate Spurious Correlations for Open-Domain Dialogue
Response Generation Models by Causal Discovery [52.95935278819512]
本研究で得られたCGDIALOGコーパスに基づくオープンドメイン応答生成モデルのスプリアス相関に関する最初の研究を行った。
因果探索アルゴリズムに着想を得て,反応生成モデルの学習と推論のための新しいモデル非依存手法を提案する。
論文 参考訳(メタデータ) (2023-03-02T06:33:48Z) - Hypothesis Testing using Causal and Causal Variational Generative Models [0.0]
Causal GenとCausal Variational Genは、非パラメトリックな構造因果知識とディープラーニング機能近似を併用することができる。
我々は、意図的な(非ランダムな)トレーニングとテストデータの分割を用いて、これらのモデルが、類似の、しかし分布外のデータポイントよりも一般化できることを示します。
本手法は, 人工振り子データセット, 外傷手術用地上レベル落下データセットを用いて検証した。
論文 参考訳(メタデータ) (2022-10-20T13:46:15Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - Estimation of Bivariate Structural Causal Models by Variational Gaussian
Process Regression Under Likelihoods Parametrised by Normalising Flows [74.85071867225533]
因果機構は構造因果モデルによって記述できる。
最先端の人工知能の大きな欠点の1つは、説明責任の欠如である。
論文 参考訳(メタデータ) (2021-09-06T14:52:58Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z) - Causal Inference with Deep Causal Graphs [0.0]
パラメトリック因果モデリング技術は、カウンターファクト推定の機能を提供することはめったにない。
Deep Causal Graphsは、因果分布をモデル化するニューラルネットワークに必要な機能の抽象的な仕様である。
複雑な相互作用をモデル化する上で,その表現力を示し,機械学習の説明可能性と公正性を示す。
論文 参考訳(メタデータ) (2020-06-15T13:03:33Z) - Bayesian Sparse Factor Analysis with Kernelized Observations [67.60224656603823]
多視点問題は潜在変数モデルに直面することができる。
高次元問題と非線形問題は伝統的にカーネルメソッドによって扱われる。
両アプローチを単一モデルにマージすることを提案する。
論文 参考訳(メタデータ) (2020-06-01T14:25:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。