論文の概要: Amortized Inference for Causal Structure Learning
- arxiv url: http://arxiv.org/abs/2205.12934v1
- Date: Wed, 25 May 2022 17:37:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 13:37:41.876752
- Title: Amortized Inference for Causal Structure Learning
- Title(参考訳): 因果構造学習のための償却推論
- Authors: Lars Lorch, Scott Sussex, Jonas Rothfuss, Andreas Krause, Bernhard
Sch\"olkopf
- Abstract要約: 因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
- 参考スコア(独自算出の注目度): 72.84105256353801
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning causal structure poses a combinatorial search problem that typically
involves evaluating structures using a score or independence test. The
resulting search is costly, and designing suitable scores or tests that capture
prior knowledge is difficult. In this work, we propose to amortize the process
of causal structure learning. Rather than searching over causal structures
directly, we train a variational inference model to predict the causal
structure from observational/interventional data. Our inference model acquires
domain-specific inductive bias for causal discovery solely from data generated
by a simulator. This allows us to bypass both the search over graphs and the
hand-engineering of suitable score functions. Moreover, the architecture of our
inference model is permutation invariant w.r.t. the data points and permutation
equivariant w.r.t. the variables, facilitating generalization to significantly
larger problem instances than seen during training. On synthetic data and
semi-synthetic gene expression data, our models exhibit robust generalization
capabilities under substantial distribution shift and significantly outperform
existing algorithms, especially in the challenging genomics domain.
- Abstract(参考訳): 因果構造学習は、通常、スコアまたは独立性テストを使用して構造を評価することを伴う組合せ探索問題を引き起こす。
検索結果の検索はコストがかかり、事前の知識をキャプチャする適切なスコアやテストの設計は困難である。
本研究では,因果構造学習の過程を補正することを提案する。
因果構造を直接探索する代わりに、変分推論モデルを訓練し、観測データと干渉データから因果構造を予測する。
推論モデルは,シミュレータが生成するデータのみから,因果発見のためのドメイン固有帰納バイアスを取得する。
これにより、グラフ上の探索と適切なスコア関数のハンドエンジニアリングの両方をバイパスできる。
さらに、推論モデルのアーキテクチャは置換不変量 w.r.t. データポイントと置換同変量 w.r.t. 変数であり、トレーニング中に見たよりもはるかに大きな問題インスタンスへの一般化を促進する。
合成データと半合成遺伝子発現データについて,本モデルでは,分布シフトがかなり大きく,既存のアルゴリズム,特に挑戦的なゲノム領域において著しく上回っている。
関連論文リスト
- Modular Learning of Deep Causal Generative Models for High-dimensional
Causal Inference [6.52423450125622]
本研究では、深い因果生成モデルを訓練し、特定可能な介入および反事実分布から確実にサンプルをサンプリングできる逐次訓練アルゴリズムを提案する。
我々のアルゴリズムは、Modular-DCMと呼ばれ、ネットワーク重みの学習に敵対的トレーニングを使用し、私たちの知る限り、事前学習されたモデルと、特定可能な因果クエリから確実にサンプリングできる最初のアルゴリズムである。
論文 参考訳(メタデータ) (2024-01-02T20:31:15Z) - Heteroscedastic Causal Structure Learning [2.566492438263125]
ガウス雑音下での不連続因果構造学習問題に取り組む。
因果的機構の正常性を利用して、有効な因果的順序付けを復元することができる。
その結果,単純な因果構造学習アルゴリズムHOST (Heteroscedastic causal STructure Learning) が得られた。
論文 参考訳(メタデータ) (2023-07-16T07:53:16Z) - Learning to Bound Counterfactual Inference in Structural Causal Models
from Observational and Randomised Data [64.96984404868411]
我々は、従来のEMベースのアルゴリズムを拡張するための全体的なデータの特徴付けを導出する。
新しいアルゴリズムは、そのような混合データソースからモデルパラメータの(不特定性)領域を近似することを学ぶ。
反実的な結果に間隔近似を与え、それが特定可能な場合の点に崩壊する。
論文 参考訳(メタデータ) (2022-12-06T12:42:11Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - Learning Curves for SGD on Structured Features [23.40229188549055]
本研究では,学習中におけるテストエラーを正確に予測するために,特徴空間内のデータの幾何学が重要であることを示す。
提案手法は,学習中のテストエラーを正確に予測するためには,特徴空間内のデータの幾何をモデル化することが極めて重要であることを示す。
論文 参考訳(メタデータ) (2021-06-04T20:48:20Z) - Parsimonious Inference [0.0]
parsimonious inferenceは任意のアーキテクチャ上の推論の情報理論的な定式化である。
提案手法は,効率的な符号化と巧妙なサンプリング戦略を組み合わせて,クロスバリデーションを伴わない予測アンサンブルを構築する。
論文 参考訳(メタデータ) (2021-03-03T04:13:14Z) - Learning Causal Models Online [103.87959747047158]
予測モデルは、予測を行うためにデータの急激な相関に依存することができる。
強い一般化を達成するための一つの解決策は、モデルに因果構造を組み込むことである。
本稿では,突発的特徴を継続的に検出・除去するオンラインアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-12T20:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。