論文の概要: From Identifiable Causal Representations to Controllable Counterfactual
Generation: A Survey on Causal Generative Modeling
- arxiv url: http://arxiv.org/abs/2310.11011v1
- Date: Tue, 17 Oct 2023 05:45:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-18 17:35:06.866528
- Title: From Identifiable Causal Representations to Controllable Counterfactual
Generation: A Survey on Causal Generative Modeling
- Title(参考訳): 因果表現から制御可能な因果生成へ:因果生成モデリングに関する調査
- Authors: Aneesh Komanduri, Xintao Wu, Yongkai Wu, Feng Chen
- Abstract要約: 因果モデル(Causal model)は、分散シフトロバスト性(英語版)、公正性(英語版)、相互運用性(英語版)など、深い生成モデルに有益な性質を提供する。
フェアネス、プライバシ、アウト・オブ・ディストリビューションの一般化、精密医療における因果生成モデルの基本的な理論、定式化、欠点、データセット、メトリクス、および応用に焦点を当てる。
- 参考スコア(独自算出の注目度): 18.318692567104378
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep generative models have shown tremendous success in data density
estimation and data generation from finite samples. While these models have
shown impressive performance by learning correlations among features in the
data, some fundamental shortcomings are their lack of explainability, the
tendency to induce spurious correlations, and poor out-of-distribution
extrapolation. In an effort to remedy such challenges, one can incorporate the
theory of causality in deep generative modeling. Structural causal models
(SCMs) describe data-generating processes and model complex causal
relationships and mechanisms among variables in a system. Thus, SCMs can
naturally be combined with deep generative models. Causal models offer several
beneficial properties to deep generative models, such as distribution shift
robustness, fairness, and interoperability. We provide a technical survey on
causal generative modeling categorized into causal representation learning and
controllable counterfactual generation methods. We focus on fundamental theory,
formulations, drawbacks, datasets, metrics, and applications of causal
generative models in fairness, privacy, out-of-distribution generalization, and
precision medicine. We also discuss open problems and fruitful research
directions for future work in the field.
- Abstract(参考訳): 深層生成モデルは、有限サンプルからのデータ密度推定とデータ生成に多大な成功を収めている。
これらのモデルでは,データ中の特徴間の相関関係の学習による顕著な性能を示す一方で,その説明可能性の欠如,突発的相関を誘発する傾向,分布外挿不良などが根本的な欠点である。
このような課題を解決するために、深い生成モデルに因果性の理論を組み込むことができる。
構造因果モデル(SCM)は、システム内の変数間の複雑な因果関係とメカニズムをモデル化する。
したがって、scmは自然に深い生成モデルと組み合わせることができる。
因果モデルは、分散シフトのロバスト性、公平性、相互運用性など、深い生成モデルにいくつかの有益な特性を提供する。
因果表現学習と制御可能な反事実生成法に分類された因果生成モデルに関する技術的調査を行う。
我々は、公平性、プライバシ、分散一般化、精密医学における因果生成モデルの基本的な理論、定式化、欠点、データセット、メトリクス、および応用に焦点を当てる。
また,オープンな問題と今後の研究の方向性についても論じる。
関連論文リスト
- Generative Intervention Models for Causal Perturbation Modeling [80.72074987374141]
多くの応用において、システムのメカニズムが外部の摂動によって変更されるかは未定である。
本稿では、これらの摂動特徴を原子間干渉による分布にマッピングする方法を学習する生成的介入モデル(GIM)を提案する。
論文 参考訳(メタデータ) (2024-11-21T10:37:57Z) - Learning Divergence Fields for Shift-Robust Graph Representations [73.11818515795761]
本研究では,相互依存データに対する問題に対して,学習可能な分散場を持つ幾何学的拡散モデルを提案する。
因果推論によって新たな学習目標が導出され、ドメイン間で無神経な相互依存の一般化可能なパターンを学習するためのモデルが導出される。
論文 参考訳(メタデータ) (2024-06-07T14:29:21Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Discovering Mixtures of Structural Causal Models from Time Series Data [23.18511951330646]
基礎となる因果モデルを推測するために, MCD と呼ばれる一般的な変分推論に基づくフレームワークを提案する。
このアプローチでは、データ可能性のエビデンス-ローバウンドを最大化するエンドツーエンドのトレーニングプロセスを採用しています。
本研究では,本手法が因果発見タスクにおける最先端のベンチマークを上回ることを実証する。
論文 参考訳(メタデータ) (2023-10-10T05:13:10Z) - On the causality-preservation capabilities of generative modelling [0.0]
GANの因果保存能力と生成した合成データが因果質問に確実に答えられるかどうかを検討する。
これは、GANによって生成される合成データの因果解析を、より寛大な仮定で行うことによって行われる。
論文 参考訳(メタデータ) (2023-01-03T14:09:15Z) - Hypothesis Testing using Causal and Causal Variational Generative Models [0.0]
Causal GenとCausal Variational Genは、非パラメトリックな構造因果知識とディープラーニング機能近似を併用することができる。
我々は、意図的な(非ランダムな)トレーニングとテストデータの分割を用いて、これらのモデルが、類似の、しかし分布外のデータポイントよりも一般化できることを示します。
本手法は, 人工振り子データセット, 外傷手術用地上レベル落下データセットを用いて検証した。
論文 参考訳(メタデータ) (2022-10-20T13:46:15Z) - De-Biasing Generative Models using Counterfactual Methods [0.0]
我々はCausal Counterfactual Generative Model (CCGM) と呼ばれる新しいデコーダベースのフレームワークを提案する。
提案手法は,因果関係の忠実さを強調するために,因果関係の潜在空間VAEモデルと特定の修正を加えたものである。
因果的学習と符号化/復号化が因果的介入の質をいかに高めるかを検討する。
論文 参考訳(メタデータ) (2022-07-04T16:53:20Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Causal Inference with Deep Causal Graphs [0.0]
パラメトリック因果モデリング技術は、カウンターファクト推定の機能を提供することはめったにない。
Deep Causal Graphsは、因果分布をモデル化するニューラルネットワークに必要な機能の抽象的な仕様である。
複雑な相互作用をモデル化する上で,その表現力を示し,機械学習の説明可能性と公正性を示す。
論文 参考訳(メタデータ) (2020-06-15T13:03:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。