論文の概要: Amortized Inference for Causal Structure Learning
- arxiv url: http://arxiv.org/abs/2205.12934v1
- Date: Wed, 25 May 2022 17:37:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 13:37:41.876752
- Title: Amortized Inference for Causal Structure Learning
- Title(参考訳): 因果構造学習のための償却推論
- Authors: Lars Lorch, Scott Sussex, Jonas Rothfuss, Andreas Krause, Bernhard
Sch\"olkopf
- Abstract要約: 因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
- 参考スコア(独自算出の注目度): 72.84105256353801
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning causal structure poses a combinatorial search problem that typically
involves evaluating structures using a score or independence test. The
resulting search is costly, and designing suitable scores or tests that capture
prior knowledge is difficult. In this work, we propose to amortize the process
of causal structure learning. Rather than searching over causal structures
directly, we train a variational inference model to predict the causal
structure from observational/interventional data. Our inference model acquires
domain-specific inductive bias for causal discovery solely from data generated
by a simulator. This allows us to bypass both the search over graphs and the
hand-engineering of suitable score functions. Moreover, the architecture of our
inference model is permutation invariant w.r.t. the data points and permutation
equivariant w.r.t. the variables, facilitating generalization to significantly
larger problem instances than seen during training. On synthetic data and
semi-synthetic gene expression data, our models exhibit robust generalization
capabilities under substantial distribution shift and significantly outperform
existing algorithms, especially in the challenging genomics domain.
- Abstract(参考訳): 因果構造学習は、通常、スコアまたは独立性テストを使用して構造を評価することを伴う組合せ探索問題を引き起こす。
検索結果の検索はコストがかかり、事前の知識をキャプチャする適切なスコアやテストの設計は困難である。
本研究では,因果構造学習の過程を補正することを提案する。
因果構造を直接探索する代わりに、変分推論モデルを訓練し、観測データと干渉データから因果構造を予測する。
推論モデルは,シミュレータが生成するデータのみから,因果発見のためのドメイン固有帰納バイアスを取得する。
これにより、グラフ上の探索と適切なスコア関数のハンドエンジニアリングの両方をバイパスできる。
さらに、推論モデルのアーキテクチャは置換不変量 w.r.t. データポイントと置換同変量 w.r.t. 変数であり、トレーニング中に見たよりもはるかに大きな問題インスタンスへの一般化を促進する。
合成データと半合成遺伝子発現データについて,本モデルでは,分布シフトがかなり大きく,既存のアルゴリズム,特に挑戦的なゲノム領域において著しく上回っている。
関連論文リスト
- Learning Divergence Fields for Shift-Robust Graph Representations [73.11818515795761]
本研究では,相互依存データに対する問題に対して,学習可能な分散場を持つ幾何学的拡散モデルを提案する。
因果推論によって新たな学習目標が導出され、ドメイン間で無神経な相互依存の一般化可能なパターンを学習するためのモデルが導出される。
論文 参考訳(メタデータ) (2024-06-07T14:29:21Z) - FiP: a Fixed-Point Approach for Causal Generative Modeling [20.88890689294816]
因果順序付き変数上の不動点問題を記述するのにDAGを必要としない新しい等価形式法を提案する。
トポロジカル秩序(TO)を考慮し,一意に回復できる3つの重要な症例を示す。
論文 参考訳(メタデータ) (2024-04-10T12:29:05Z) - Sample, estimate, aggregate: A recipe for causal discovery foundation models [28.116832159265964]
我々は、古典因果探索アルゴリズムの出力からより大きな因果グラフを予測することを学ぶ教師付きモデルを訓練する。
我々のアプローチは、古典的手法の出力における典型的なエラーがデータセット間で比較できるという観察によって実現されている。
実データおよび合成データに関する実験では、このモデルが不特定性や分布シフトに直面して高い精度を維持することを示した。
論文 参考訳(メタデータ) (2024-02-02T21:57:58Z) - Learning to Bound Counterfactual Inference in Structural Causal Models
from Observational and Randomised Data [64.96984404868411]
我々は、従来のEMベースのアルゴリズムを拡張するための全体的なデータの特徴付けを導出する。
新しいアルゴリズムは、そのような混合データソースからモデルパラメータの(不特定性)領域を近似することを学ぶ。
反実的な結果に間隔近似を与え、それが特定可能な場合の点に崩壊する。
論文 参考訳(メタデータ) (2022-12-06T12:42:11Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - Systematic Evaluation of Causal Discovery in Visual Model Based
Reinforcement Learning [76.00395335702572]
AIと因果関係の中心的な目標は、抽象表現と因果構造を共同で発見することである。
因果誘導を研究するための既存の環境は、複雑なタスク固有の因果グラフを持つため、この目的には適していない。
本研究の目的は,高次変数の学習表現と因果構造の研究を促進することである。
論文 参考訳(メタデータ) (2021-07-02T05:44:56Z) - Learning Curves for SGD on Structured Features [23.40229188549055]
本研究では,学習中におけるテストエラーを正確に予測するために,特徴空間内のデータの幾何学が重要であることを示す。
提案手法は,学習中のテストエラーを正確に予測するためには,特徴空間内のデータの幾何をモデル化することが極めて重要であることを示す。
論文 参考訳(メタデータ) (2021-06-04T20:48:20Z) - Parsimonious Inference [0.0]
parsimonious inferenceは任意のアーキテクチャ上の推論の情報理論的な定式化である。
提案手法は,効率的な符号化と巧妙なサンプリング戦略を組み合わせて,クロスバリデーションを伴わない予測アンサンブルを構築する。
論文 参考訳(メタデータ) (2021-03-03T04:13:14Z) - Learning Causal Models Online [103.87959747047158]
予測モデルは、予測を行うためにデータの急激な相関に依存することができる。
強い一般化を達成するための一つの解決策は、モデルに因果構造を組み込むことである。
本稿では,突発的特徴を継続的に検出・除去するオンラインアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-12T20:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。