論文の概要: BUILD with Precision: Bottom-Up Inference of Linear DAGs
- arxiv url: http://arxiv.org/abs/2512.16111v1
- Date: Thu, 18 Dec 2025 03:06:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:31.891481
- Title: BUILD with Precision: Bottom-Up Inference of Linear DAGs
- Title(参考訳): 精度の高いBUILD:線形DAGのボトムアップ推定
- Authors: Hamed Ajorlou, Samuel Rey, Gonzalo Mateos, Geert Leus, Antonio G. Marques,
- Abstract要約: 観測データから有向非巡回グラフ(DAG)の構造を学習することは、因果発見、統計信号処理、機械学習における中心的な問題である。
実験結果から, アンサンブル精度行列はDAG回復を促進する特異な構造を示すことが明らかとなった。
BUILDは,葉ノードとその親を識別する決定論的ステップワイドアルゴリズムである。次に,入射端を除去して次のステップに進むことで葉を刈り取り,真精度行列からDAGを正確に再構築する。
- 参考スコア(独自算出の注目度): 35.95692184008531
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Learning the structure of directed acyclic graphs (DAGs) from observational data is a central problem in causal discovery, statistical signal processing, and machine learning. Under a linear Gaussian structural equation model (SEM) with equal noise variances, the problem is identifiable and we show that the ensemble precision matrix of the observations exhibits a distinctive structure that facilitates DAG recovery. Exploiting this property, we propose BUILD (Bottom-Up Inference of Linear DAGs), a deterministic stepwise algorithm that identifies leaf nodes and their parents, then prunes the leaves by removing incident edges to proceed to the next step, exactly reconstructing the DAG from the true precision matrix. In practice, precision matrices must be estimated from finite data, and ill-conditioning may lead to error accumulation across BUILD steps. As a mitigation strategy, we periodically re-estimate the precision matrix (with less variables as leaves are pruned), trading off runtime for enhanced robustness. Reproducible results on challenging synthetic benchmarks demonstrate that BUILD compares favorably to state-of-the-art DAG learning algorithms, while offering an explicit handle on complexity.
- Abstract(参考訳): 観測データから有向非巡回グラフ(DAG)の構造を学習することは、因果発見、統計信号処理、機械学習における中心的な問題である。
等価ノイズ分散を持つ線形ガウス構造方程式モデル(SEM)の下では,問題の同定が可能であり,観測のアンサンブル精度行列がDAG回復を促進する特異な構造を示すことを示す。
そこで我々は,BUILD (Bottom-Up Inference of Linear DAGs) という,葉ノードとその親を識別する決定論的ステップワイドアルゴリズムを提案する。
実際には、精度行列は有限データから推定されなければならない。
緩和戦略として、我々は定期的に精度行列(葉が刈り取られるにつれて変数が少なくなる)を再見積し、強化された堅牢性のためにランタイムをトレードオフします。
難しい合成ベンチマークの再現可能な結果は、BUILDが最先端のDAG学習アルゴリズムと好適に比較され、複雑さの明確なハンドリングを提供することを示している。
関連論文リスト
- LOCAL: Learning with Orientation Matrix to Infer Causal Structure from Time Series Data [51.47827479376251]
LOCALは動的因果構造を復元するための効率的で実装が容易で制約のない手法である。
Asymptotic Causal Learning Mask (ACML) と Dynamic Graph Learning (DGPL)
合成および実世界のデータセットの実験では、LOCALが既存の手法よりも大幅に優れていることが示されている。
論文 参考訳(メタデータ) (2024-10-25T10:48:41Z) - Induced Covariance for Causal Discovery in Linear Sparse Structures [55.2480439325792]
因果モデルでは、観測データから変数間の因果関係を解き明かそうとしている。
本稿では,変数が線形に疎結合な関係を示す設定のための新しい因果探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-02T04:01:38Z) - Non-negative Weighted DAG Structure Learning [12.139158398361868]
本研究は,真DAGを夜間観測から学習する問題に対処する。
本稿では, ar を返すことが保証される手法に基づく DAG 回復アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-09-12T09:41:29Z) - Recovering Linear Causal Models with Latent Variables via Cholesky
Factorization of Covariance Matrix [21.698480201955213]
観測データの共分散行列のコレスキー分解に基づくDAG構造復元アルゴリズムを提案する。
合成および実世界のデータセットでは、アルゴリズムは従来の手法よりも大幅に高速で、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-01T17:27:49Z) - Discovering Dynamic Causal Space for DAG Structure Learning [64.763763417533]
本稿では,DAG構造学習のための動的因果空間であるCASPERを提案する。
グラフ構造をスコア関数に統合し、因果空間における新しい尺度として、推定真理DAGと基底真理DAGの因果距離を忠実に反映する。
論文 参考訳(メタデータ) (2023-06-05T12:20:40Z) - dotears: Scalable, consistent DAG estimation using observational and
interventional data [1.220743263007369]
因果性遺伝子制御ネットワークはDAG(direct acyclic graph)によって表現できる
単一の因果構造を推論する継続的最適化フレームワークであるtexttdotears$[doo-tairs]を提示する。
我々は、$texttdotears$は、軽度の仮定の下で真DAGの証明可能な一貫した推定量であることを示した。
論文 参考訳(メタデータ) (2023-05-30T17:03:39Z) - Learning Large Causal Structures from Inverse Covariance Matrix via
Sparse Matrix Decomposition [2.403264213118039]
本稿では,逆共分散行列から因果構造を学習することに焦点を当てる。
提案手法は,行列分解モデルの連続的最適化に基づくICIDと呼ばれる。
本研究では,ノイズ分散の知識を前提として,提案した指向性非巡回グラフ(DAG)を効率よく同定することを示す。
論文 参考訳(メタデータ) (2022-11-25T16:32:56Z) - BCD Nets: Scalable Variational Approaches for Bayesian Causal Discovery [97.79015388276483]
構造方程式モデル(SEM)は、有向非巡回グラフ(DAG)を介して表される因果関係を推論する効果的な枠組みである。
近年の進歩により、観測データからDAGの有効最大点推定が可能となった。
線形ガウス SEM を特徴付ける DAG 上の分布を推定するための変分フレームワークである BCD Nets を提案する。
論文 参考訳(メタデータ) (2021-12-06T03:35:21Z) - DAGs with No Curl: An Efficient DAG Structure Learning Approach [62.885572432958504]
近年のDAG構造学習は連続的な非巡回性制約を伴う制約付き連続最適化問題として定式化されている。
本稿では,DAG空間の重み付き隣接行列を直接モデル化し,学習するための新しい学習フレームワークを提案する。
本手法は, 線形および一般化された構造方程式モデルにおいて, ベースラインDAG構造学習法よりも精度が高いが, 効率がよいことを示す。
論文 参考訳(メタデータ) (2021-06-14T07:11:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。