論文の概要: Sample, estimate, aggregate: A recipe for causal discovery foundation
models
- arxiv url: http://arxiv.org/abs/2402.01929v1
- Date: Fri, 2 Feb 2024 21:57:58 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-06 23:29:29.365722
- Title: Sample, estimate, aggregate: A recipe for causal discovery foundation
models
- Title(参考訳): サンプル,推定,集計:因果的発見基盤モデルのためのレシピ
- Authors: Menghua Wu, Yujia Bao, Regina Barzilay, Tommi Jaakkola
- Abstract要約: 本稿では,従来の探索アルゴリズムから予測を解くために,学習モデルを事前訓練した因果探索フレームワークを提案する。
提案手法は, 合成および現実的なデータセット上での最先端性能を実現し, トレーニング中に見えないデータ生成機構に一般化し, 既存のモデルよりも桁違いに高速な推論速度を提供する。
- 参考スコア(独自算出の注目度): 30.71561923454788
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Causal discovery, the task of inferring causal structure from data, promises
to accelerate scientific research, inform policy making, and more. However, the
per-dataset nature of existing causal discovery algorithms renders them slow,
data hungry, and brittle. Inspired by foundation models, we propose a causal
discovery framework where a deep learning model is pretrained to resolve
predictions from classical discovery algorithms run over smaller subsets of
variables. This method is enabled by the observations that the outputs from
classical algorithms are fast to compute for small problems, informative of
(marginal) data structure, and their structure outputs as objects remain
comparable across datasets. Our method achieves state-of-the-art performance on
synthetic and realistic datasets, generalizes to data generating mechanisms not
seen during training, and offers inference speeds that are orders of magnitude
faster than existing models.
- Abstract(参考訳): 因果的構造をデータから推定するタスクである因果的発見は、科学研究の加速、政策決定の通知などを約束する。
しかし、既存の因果発見アルゴリズムのデータセット毎の性質は、それらを遅く、データが空腹で、不安定にする。
基礎モデルに着想を得て,より小さな変数のサブセット上で実行される古典的発見アルゴリズムからの予測を解決するために,ディープラーニングモデルを事前学習する因果的発見フレームワークを提案する。
この方法は、古典的アルゴリズムからの出力が小さな問題に対して高速に計算できること、データ構造を知らせること、そしてそれらの構造出力がデータセットに匹敵する状態にあることを観察することによって実現される。
提案手法は, 合成および現実的なデータセット上での最先端性能を実現し, トレーニング中に見えないデータ生成機構に一般化し, 既存のモデルよりも桁違いに高速な推論速度を提供する。
関連論文リスト
- Modular Learning of Deep Causal Generative Models for High-dimensional
Causal Inference [6.52423450125622]
本研究では、深い因果生成モデルを訓練し、特定可能な介入および反事実分布から確実にサンプルをサンプリングできる逐次訓練アルゴリズムを提案する。
我々のアルゴリズムは、Modular-DCMと呼ばれ、ネットワーク重みの学習に敵対的トレーニングを使用し、私たちの知る限り、事前学習されたモデルと、特定可能な因果クエリから確実にサンプリングできる最初のアルゴリズムである。
論文 参考訳(メタデータ) (2024-01-02T20:31:15Z) - Learning to Bound Counterfactual Inference in Structural Causal Models
from Observational and Randomised Data [64.96984404868411]
我々は、従来のEMベースのアルゴリズムを拡張するための全体的なデータの特徴付けを導出する。
新しいアルゴリズムは、そのような混合データソースからモデルパラメータの(不特定性)領域を近似することを学ぶ。
反実的な結果に間隔近似を与え、それが特定可能な場合の点に崩壊する。
論文 参考訳(メタデータ) (2022-12-06T12:42:11Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - MIRACLE: Causally-Aware Imputation via Learning Missing Data Mechanisms [82.90843777097606]
欠落データに対する因果認識型計算アルゴリズム(MIRACLE)を提案する。
MIRACLEは、欠落発生機構を同時にモデル化することにより、ベースラインの計算を反復的に洗練する。
我々は、MIRACLEが一貫してイミューテーションを改善することができることを示すために、合成および様々な公開データセットに関する広範な実験を行う。
論文 参考訳(メタデータ) (2021-11-04T22:38:18Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - Improving Efficiency and Accuracy of Causal Discovery Using a
Hierarchical Wrapper [7.570246812206772]
観測データからの因果発見は、科学の多くの分野において重要なツールである。
大規模なサンプルリミットでは、音と完全な因果探索アルゴリズムが導入されている。
しかし、これらのアルゴリズムが使用する統計的テストのパワーを制限するのは、有限のトレーニングデータのみである。
論文 参考訳(メタデータ) (2021-07-11T09:24:49Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Learning Causal Models Online [103.87959747047158]
予測モデルは、予測を行うためにデータの急激な相関に依存することができる。
強い一般化を達成するための一つの解決策は、モデルに因果構造を組み込むことである。
本稿では,突発的特徴を継続的に検出・除去するオンラインアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-12T20:49:20Z) - Causal Discovery from Incomplete Data: A Deep Learning Approach [21.289342482087267]
因果構造探索と因果構造探索を反復的に行うために, 因果学習を提案する。
ICLは、異なるデータメカニズムで最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-01-15T14:28:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。