論文の概要: Discovering Dynamic Causal Space for DAG Structure Learning
- arxiv url: http://arxiv.org/abs/2306.02822v3
- Date: Mon, 11 Dec 2023 15:08:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-12 22:44:48.602608
- Title: Discovering Dynamic Causal Space for DAG Structure Learning
- Title(参考訳): DAG構造学習のための動的因果空間の探索
- Authors: Fangfu Liu, Wenchang Ma, An Zhang, Xiang Wang, Yueqi Duan, Tat-Seng
Chua
- Abstract要約: 本稿では,DAG構造学習のための動的因果空間であるCASPERを提案する。
グラフ構造をスコア関数に統合し、因果空間における新しい尺度として、推定真理DAGと基底真理DAGの因果距離を忠実に反映する。
- 参考スコア(独自算出の注目度): 64.763763417533
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discovering causal structure from purely observational data (i.e., causal
discovery), aiming to identify causal relationships among variables, is a
fundamental task in machine learning. The recent invention of differentiable
score-based DAG learners is a crucial enabler, which reframes the combinatorial
optimization problem into a differentiable optimization with a DAG constraint
over directed graph space. Despite their great success, these cutting-edge DAG
learners incorporate DAG-ness independent score functions to evaluate the
directed graph candidates, lacking in considering graph structure. As a result,
measuring the data fitness alone regardless of DAG-ness inevitably leads to
discovering suboptimal DAGs and model vulnerabilities. Towards this end, we
propose a dynamic causal space for DAG structure learning, coined CASPER, that
integrates the graph structure into the score function as a new measure in the
causal space to faithfully reflect the causal distance between estimated and
ground truth DAG. CASPER revises the learning process as well as enhances the
DAG structure learning via adaptive attention to DAG-ness. Grounded by
empirical visualization, CASPER, as a space, satisfies a series of desired
properties, such as structure awareness and noise robustness. Extensive
experiments on both synthetic and real-world datasets clearly validate the
superiority of our CASPER over the state-of-the-art causal discovery methods in
terms of accuracy and robustness.
- Abstract(参考訳): 変数間の因果関係の同定を目的とした純粋観測データ(因果発見)から因果構造を発見することは、機械学習の基本的な課題である。
近年の微分可能なスコアベースDAG学習器の発明は、組合せ最適化問題を有向グラフ空間上のDAG制約で微分可能な最適化に再構成する重要なイネーブルである。
その成功にもかかわらず、これらの最先端DAG学習者は、グラフ構造を考慮せず、有向グラフ候補を評価するためにDAGの独立スコア関数を組み込んでいる。
その結果,DAGによらずデータ適合度を計測することは,必然的に,最適なDAGとモデル脆弱性の発見につながる。
そこで本研究では,DAG構造学習のための動的因果空間であるCASPERを提案し,このグラフ構造をスコア関数に統合することで,推定された真理と地上のDAGの因果距離を忠実に反映する。
CASPERは、DAG-nessへの適応的注意によるDAG構造学習の強化とともに、学習プロセスの見直しを行う。
経験的可視化により、CASPERは空間として、構造認識やノイズ堅牢性といった一連の望ましい特性を満たす。
合成と実世界の両方のデータセットに対する大規模な実験は、精度と堅牢性の観点から、最先端の因果発見法よりもCASPERの方が優れていることを明確に証明している。
関連論文リスト
- Introducing Diminutive Causal Structure into Graph Representation Learning [19.132025125620274]
本稿では,グラフニューラルネット(GNN)が専門的な最小の因果構造から洞察を得ることを可能にする新しい手法を提案する。
本手法は,これらの小型因果構造のモデル表現から因果知識を抽出する。
論文 参考訳(メタデータ) (2024-06-13T00:18:20Z) - Causality Learning With Wasserstein Generative Adversarial Networks [2.492300648514129]
DAG-WGANという名前のモデルは、ワッサーシュタインに基づく対向損失とオートエンコーダアーキテクチャにおける非巡回性制約を組み合わせたものである。
データ生成能力を改善しながら、因果構造を同時に学習する。
本稿では,DAG-WGAN と Wsserstein 計量を含まない他のモデルとの比較を行い,その因果構造学習への寄与を明らかにする。
論文 参考訳(メタデータ) (2022-06-03T10:45:47Z) - Amortized Inference for Causal Structure Learning [72.84105256353801]
因果構造を学習することは、通常、スコアまたは独立テストを使用して構造を評価することを伴う探索問題を引き起こす。
本研究では,観測・干渉データから因果構造を予測するため,変分推論モデルを訓練する。
我々のモデルは、実質的な分布シフトの下で頑健な一般化能力を示す。
論文 参考訳(メタデータ) (2022-05-25T17:37:08Z) - DAG-WGAN: Causal Structure Learning With Wasserstein Generative
Adversarial Networks [2.492300648514129]
本稿では、自動エンコーダアーキテクチャであるワッサーシュタインに基づく対向損失と非循環性制約を組み合わせたDAG-WGANを提案する。
同時に因果構造を学習し、ワッサーシュタイン距離メートル法から強度を利用することによりデータ生成能力を向上させる。
我々はDAG-WGANを最先端技術に対して評価し,その性能を実証した。
論文 参考訳(メタデータ) (2022-04-01T12:27:27Z) - BCDAG: An R package for Bayesian structure and Causal learning of
Gaussian DAGs [77.34726150561087]
観測データから因果関係の発見と因果関係を推定するためのRパッケージを提案する。
我々の実装は、観測回数とともに効率的にスケールし、DAGが十分にスパースであるたびに、データセット内の変数の数を削減します。
次に、実際のデータセットとシミュレーションデータセットの両方で、主な機能とアルゴリズムを説明します。
論文 参考訳(メタデータ) (2022-01-28T09:30:32Z) - Federated Causal Discovery [74.37739054932733]
本稿では,DAG-Shared Federated Causal Discovery (DS-FCD) という勾配学習フレームワークを開発する。
ローカルデータに直接触れることなく因果グラフを学習し、データの不均一性を自然に扱うことができる。
合成および実世界の両方のデータセットに対する大規模な実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2021-12-07T08:04:12Z) - BCD Nets: Scalable Variational Approaches for Bayesian Causal Discovery [97.79015388276483]
構造方程式モデル(SEM)は、有向非巡回グラフ(DAG)を介して表される因果関係を推論する効果的な枠組みである。
近年の進歩により、観測データからDAGの有効最大点推定が可能となった。
線形ガウス SEM を特徴付ける DAG 上の分布を推定するための変分フレームワークである BCD Nets を提案する。
論文 参考訳(メタデータ) (2021-12-06T03:35:21Z) - Learning Neural Causal Models with Active Interventions [83.44636110899742]
本稿では,データ生成プロセスの根底にある因果構造を素早く識別する能動的介入ターゲット機構を提案する。
本手法は,ランダムな介入ターゲティングと比較して,要求される対話回数を大幅に削減する。
シミュレーションデータから実世界のデータまで,複数のベンチマークにおいて優れた性能を示す。
論文 参考訳(メタデータ) (2021-09-06T13:10:37Z) - On the Role of Sparsity and DAG Constraints for Learning Linear DAGs [16.97675762810828]
ガウス系および非ガウス系におけるDAGモデルの学習におけるスパーシリティとDAG制約の役割について検討した。
確率に基づくスコア関数を提案し, 基本真理DAGと同等のDAGを学習するためには, ソフト・スパシティとDAG制約を適用するだけでよいことを示す。
論文 参考訳(メタデータ) (2020-06-17T23:43:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。