論文の概要: From Identifiable Causal Representations to Controllable Counterfactual Generation: A Survey on Causal Generative Modeling
- arxiv url: http://arxiv.org/abs/2310.11011v2
- Date: Thu, 23 May 2024 16:59:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-26 20:33:22.117901
- Title: From Identifiable Causal Representations to Controllable Counterfactual Generation: A Survey on Causal Generative Modeling
- Title(参考訳): 因果表現から制御可能な因果生成へ:因果生成モデリングに関する調査
- Authors: Aneesh Komanduri, Xintao Wu, Yongkai Wu, Feng Chen,
- Abstract要約: 基本的な理論、方法論、欠点、データセット、メトリクスに重点を置いています。
フェアネス、プライバシ、アウト・オブ・ディストリビューションの一般化、精密医療、生物科学における因果生成モデルの応用について述べる。
- 参考スコア(独自算出の注目度): 17.074858228123706
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep generative models have shown tremendous capability in data density estimation and data generation from finite samples. While these models have shown impressive performance by learning correlations among features in the data, some fundamental shortcomings are their lack of explainability, tendency to induce spurious correlations, and poor out-of-distribution extrapolation. To remedy such challenges, recent work has proposed a shift toward causal generative models. Causal models offer several beneficial properties to deep generative models, such as distribution shift robustness, fairness, and interpretability. Structural causal models (SCMs) describe data-generating processes and model complex causal relationships and mechanisms among variables in a system. Thus, SCMs can naturally be combined with deep generative models. We provide a technical survey on causal generative modeling categorized into causal representation learning and controllable counterfactual generation methods. We focus on fundamental theory, methodology, drawbacks, datasets, and metrics. Then, we cover applications of causal generative models in fairness, privacy, out-of-distribution generalization, precision medicine, and biological sciences. Lastly, we discuss open problems and fruitful research directions for future work in the field.
- Abstract(参考訳): 深部生成モデルは, 有限標本からのデータ密度推定とデータ生成に極めて有意な能力を示した。
これらのモデルでは,データ中の特徴間の相関関係の学習による顕著な性能を示す一方で,その説明可能性の欠如,突発的相関を誘発する傾向,分布外挿不良などが根本的な欠点である。
このような課題を解決するため、最近の研究は因果生成モデルへのシフトを提案している。
因果モデル(Causal model)は、分散シフトロバスト性(英語版)、公正性(英語版)、解釈可能性(英語版)など、深い生成モデルにいくつかの有益な性質を提供する。
構造因果モデル (Structure causal model, SCM) は、データ生成過程を記述し、システム内の変数間の複雑な因果関係とメカニズムをモデル化する。
したがって、SCMは自然に深層生成モデルと結合することができる。
本稿では,因果表現学習に分類した因果生成モデリングの技術的調査と,対応可能な逆生成手法について述べる。
基本的な理論、方法論、欠点、データセット、メトリクスに重点を置いています。
次に、フェアネス、プライバシ、アウト・オブ・ディストリビューションの一般化、精密医療、生物科学における因果生成モデルの応用について述べる。
最後に,オープンな問題と今後の研究の方向性について論じる。
関連論文リスト
- Learning Divergence Fields for Shift-Robust Graph Representations [73.11818515795761]
本研究では,相互依存データに対する問題に対して,学習可能な分散場を持つ幾何学的拡散モデルを提案する。
因果推論によって新たな学習目標が導出され、ドメイン間で無神経な相互依存の一般化可能なパターンを学習するためのモデルが導出される。
論文 参考訳(メタデータ) (2024-06-07T14:29:21Z) - Identifiable Latent Polynomial Causal Models Through the Lens of Change [82.14087963690561]
因果表現学習は、観測された低レベルデータから潜在的な高レベル因果表現を明らかにすることを目的としている。
主な課題の1つは、識別可能性(identifiability)として知られるこれらの潜伏因果モデルを特定する信頼性の高い保証を提供することである。
論文 参考訳(メタデータ) (2023-10-24T07:46:10Z) - Discovering Mixtures of Structural Causal Models from Time Series Data [23.18511951330646]
基礎となる因果モデルを推測するために, MCD と呼ばれる一般的な変分推論に基づくフレームワークを提案する。
このアプローチでは、データ可能性のエビデンス-ローバウンドを最大化するエンドツーエンドのトレーニングプロセスを採用しています。
本研究では,本手法が因果発見タスクにおける最先端のベンチマークを上回ることを実証する。
論文 参考訳(メタデータ) (2023-10-10T05:13:10Z) - Analyzing Bias in Diffusion-based Face Generation Models [75.80072686374564]
拡散モデルは、合成データ生成と画像編集アプリケーションでますます人気がある。
本研究では, 性別, 人種, 年齢などの属性に関して, 拡散型顔生成モデルにおけるバイアスの存在について検討する。
本研究は,GAN(Generative Adversarial Network)とGAN(Generative Adversarial Network)をベースとした顔生成モデルにおいて,データセットサイズが属性組成および知覚品質に与える影響について検討する。
論文 参考訳(メタデータ) (2023-05-10T18:22:31Z) - On the causality-preservation capabilities of generative modelling [0.0]
GANの因果保存能力と生成した合成データが因果質問に確実に答えられるかどうかを検討する。
これは、GANによって生成される合成データの因果解析を、より寛大な仮定で行うことによって行われる。
論文 参考訳(メタデータ) (2023-01-03T14:09:15Z) - Hypothesis Testing using Causal and Causal Variational Generative Models [0.0]
Causal GenとCausal Variational Genは、非パラメトリックな構造因果知識とディープラーニング機能近似を併用することができる。
我々は、意図的な(非ランダムな)トレーニングとテストデータの分割を用いて、これらのモデルが、類似の、しかし分布外のデータポイントよりも一般化できることを示します。
本手法は, 人工振り子データセット, 外傷手術用地上レベル落下データセットを用いて検証した。
論文 参考訳(メタデータ) (2022-10-20T13:46:15Z) - De-Biasing Generative Models using Counterfactual Methods [0.0]
我々はCausal Counterfactual Generative Model (CCGM) と呼ばれる新しいデコーダベースのフレームワークを提案する。
提案手法は,因果関係の忠実さを強調するために,因果関係の潜在空間VAEモデルと特定の修正を加えたものである。
因果的学習と符号化/復号化が因果的介入の質をいかに高めるかを検討する。
論文 参考訳(メタデータ) (2022-07-04T16:53:20Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - Improving the Reconstruction of Disentangled Representation Learners via Multi-Stage Modeling [54.94763543386523]
現在の自己エンコーダに基づく非絡み合い表現学習法は、(集合体)後部をペナルティ化し、潜伏因子の統計的独立を促進することで、非絡み合いを実現する。
本稿では,不整合因子をペナルティに基づく不整合表現学習法を用いて学習する,新しい多段階モデリング手法を提案する。
次に、低品質な再構成を、欠落した関連潜伏変数をモデル化するために訓練された別の深層生成モデルで改善する。
論文 参考訳(メタデータ) (2020-10-25T18:51:15Z) - Causal Inference with Deep Causal Graphs [0.0]
パラメトリック因果モデリング技術は、カウンターファクト推定の機能を提供することはめったにない。
Deep Causal Graphsは、因果分布をモデル化するニューラルネットワークに必要な機能の抽象的な仕様である。
複雑な相互作用をモデル化する上で,その表現力を示し,機械学習の説明可能性と公正性を示す。
論文 参考訳(メタデータ) (2020-06-15T13:03:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。