論文の概要: Modular Learning of Deep Causal Generative Models for High-dimensional
Causal Inference
- arxiv url: http://arxiv.org/abs/2401.01426v1
- Date: Tue, 2 Jan 2024 20:31:15 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-04 15:45:20.952397
- Title: Modular Learning of Deep Causal Generative Models for High-dimensional
Causal Inference
- Title(参考訳): 高次元因果推論のための深部因果生成モデルのモジュール学習
- Authors: Md Musfiqur Rahman and Murat Kocaoglu
- Abstract要約: 本研究では、深い因果生成モデルを訓練し、特定可能な介入および反事実分布から確実にサンプルをサンプリングできる逐次訓練アルゴリズムを提案する。
我々のアルゴリズムは、Modular-DCMと呼ばれ、ネットワーク重みの学習に敵対的トレーニングを使用し、私たちの知る限り、事前学習されたモデルと、特定可能な因果クエリから確実にサンプリングできる最初のアルゴリズムである。
- 参考スコア(独自算出の注目度): 6.52423450125622
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pearl's causal hierarchy establishes a clear separation between
observational, interventional, and counterfactual questions. Researchers
proposed sound and complete algorithms to compute identifiable causal queries
at a given level of the hierarchy using the causal structure and data from the
lower levels of the hierarchy. However, most of these algorithms assume that we
can accurately estimate the probability distribution of the data, which is an
impractical assumption for high-dimensional variables such as images. On the
other hand, modern generative deep learning architectures can be trained to
learn how to accurately sample from such high-dimensional distributions.
Especially with the recent rise of foundation models for images, it is
desirable to leverage pre-trained models to answer causal queries with such
high-dimensional data. To address this, we propose a sequential training
algorithm that, given the causal structure and a pre-trained conditional
generative model, can train a deep causal generative model, which utilizes the
pre-trained model and can provably sample from identifiable interventional and
counterfactual distributions. Our algorithm, called Modular-DCM, uses
adversarial training to learn the network weights, and to the best of our
knowledge, is the first algorithm that can make use of pre-trained models and
provably sample from any identifiable causal query in the presence of latent
confounders with high-dimensional data. We demonstrate the utility of our
algorithm using semi-synthetic and real-world datasets containing images as
variables in the causal structure.
- Abstract(参考訳): パールの因果階層は観察的、介入的、そして反事実的問題を明確に区別する。
研究者らは、階層の特定のレベルにおける同定可能な因果クエリを、階層の下位レベルからの因果構造とデータを用いて計算するための、健全で完全なアルゴリズムを提案した。
しかし、これらのアルゴリズムの多くは、画像のような高次元変数の非現実的仮定であるデータの確率分布を正確に推定できると仮定している。
一方で、現代の生成的ディープラーニングアーキテクチャは、そのような高次元分布から正確にサンプルする方法を学ぶために訓練することができる。
特に,画像の基礎モデルの増加に伴い,そのような高次元データを用いて因果クエリに応答するために,事前学習モデルを活用することが望ましい。
そこで本研究では, 因果構造と事前学習条件生成モデルを用いて, 事前学習モデルを用いた深部因果生成モデルを訓練し, 特定可能な介入および反事実分布から確実にサンプル化できる逐次訓練アルゴリズムを提案する。
Modular-DCMと呼ばれる我々のアルゴリズムは,ネットワーク重みの学習に敵対的トレーニングを使用し,我々の知る限り,事前学習されたモデルと,高次元データを持つ潜伏した共同設立者の存在下で,識別可能な因果関係の探索を確実に行うことのできる,最初のアルゴリズムである。
因果構造における変数として画像を含む半合成および実世界のデータセットを用いたアルゴリズムの有用性を示す。
関連論文リスト
- Sample, estimate, aggregate: A recipe for causal discovery foundation
models [30.71561923454788]
本稿では,従来の探索アルゴリズムから予測を解くために,学習モデルを事前訓練した因果探索フレームワークを提案する。
提案手法は, 合成および現実的なデータセット上での最先端性能を実現し, トレーニング中に見えないデータ生成機構に一般化し, 既存のモデルよりも桁違いに高速な推論速度を提供する。
論文 参考訳(メタデータ) (2024-02-02T21:57:58Z) - Learning Latent Structural Causal Models [31.686049664958457]
機械学習タスクでは、画像ピクセルや高次元ベクトルのような低レベルのデータを扱うことが多い。
本稿では,潜在構造因果モデルの因果変数,構造,パラメータについて共同推論を行う,抽出可能な近似推定手法を提案する。
論文 参考訳(メタデータ) (2022-10-24T20:09:44Z) - RandomSCM: interpretable ensembles of sparse classifiers tailored for
omics data [59.4141628321618]
決定規則の結合や解離に基づくアンサンブル学習アルゴリズムを提案する。
モデルの解釈可能性により、高次元データのバイオマーカー発見やパターン発見に有用である。
論文 参考訳(メタデータ) (2022-08-11T13:55:04Z) - De-Biasing Generative Models using Counterfactual Methods [0.0]
我々はCausal Counterfactual Generative Model (CCGM) と呼ばれる新しいデコーダベースのフレームワークを提案する。
提案手法は,因果関係の忠実さを強調するために,因果関係の潜在空間VAEモデルと特定の修正を加えたものである。
因果的学習と符号化/復号化が因果的介入の質をいかに高めるかを検討する。
論文 参考訳(メタデータ) (2022-07-04T16:53:20Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Structural Causal Models Are (Solvable by) Credal Networks [70.45873402967297]
因果推論は、干潟網の更新のための標準的なアルゴリズムによって得ることができる。
この貢献は, 干潟ネットワークによる構造因果モデルを表現するための体系的なアプローチと見なされるべきである。
実験により, 実規模問題における因果推論には, クレーダルネットワークの近似アルゴリズムがすぐに利用できることがわかった。
論文 参考訳(メタデータ) (2020-08-02T11:19:36Z) - Amortized Bayesian Inference for Models of Cognition [0.1529342790344802]
専門的なニューラルネットワークアーキテクチャを用いたシミュレーションベース推論の最近の進歩は、ベイズ近似計算の多くの過去の問題を回避している。
本稿では,アモータイズされたベイズパラメータの推定とモデル比較について概説する。
論文 参考訳(メタデータ) (2020-05-08T08:12:15Z) - Belief Propagation Reloaded: Learning BP-Layers for Labeling Problems [83.98774574197613]
最も単純な推論手法の1つとして、切り詰められた最大積のBelief伝播を取り上げ、それをディープラーニングモデルの適切なコンポーネントにするために必要となるものを加えます。
このBP-Layerは畳み込みニューラルネットワーク(CNN)の最終ブロックまたは中間ブロックとして使用できる
このモデルは様々な密集予測問題に適用可能であり、パラメータ効率が高く、ステレオ、光フロー、セマンティックセグメンテーションにおける堅牢な解を提供する。
論文 参考訳(メタデータ) (2020-03-13T13:11:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。