論文の概要: Efficient Differentiable Causal Discovery via Reliable Super-Structure Learning
- arxiv url: http://arxiv.org/abs/2601.05474v1
- Date: Fri, 09 Jan 2026 02:18:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-12 17:41:49.812521
- Title: Efficient Differentiable Causal Discovery via Reliable Super-Structure Learning
- Title(参考訳): 信頼性の高い超構造学習による効果的な微分因果探索
- Authors: Pingchuan Ma, Qixin Zhang, Shuai Wang, Dacheng Tao,
- Abstract要約: 本稿では,新たな因果発見パイプラインであるALVGLを提案する。
ALVGLはスパース分解とローランク分解を用いてデータの精度行列を学習する。
ALVGLは最先端の精度を達成するだけでなく、最適化効率を大幅に向上させることを示す。
- 参考スコア(独自算出の注目度): 51.20606796019663
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, differentiable causal discovery has emerged as a promising approach to improve the accuracy and efficiency of existing methods. However, when applied to high-dimensional data or data with latent confounders, these methods, often based on off-the-shelf continuous optimization algorithms, struggle with the vast search space, the complexity of the objective function, and the nontrivial nature of graph-theoretical constraints. As a result, there has been a surge of interest in leveraging super-structures to guide the optimization process. Nonetheless, learning an appropriate super-structure at the right level of granularity, and doing so efficiently across various settings, presents significant challenges. In this paper, we propose ALVGL, a novel and general enhancement to the differentiable causal discovery pipeline. ALVGL employs a sparse and low-rank decomposition to learn the precision matrix of the data. We design an ADMM procedure to optimize this decomposition, identifying components in the precision matrix that are most relevant to the underlying causal structure. These components are then combined to construct a super-structure that is provably a superset of the true causal graph. This super-structure is used to initialize a standard differentiable causal discovery method with a more focused search space, thereby improving both optimization efficiency and accuracy. We demonstrate the versatility of ALVGL by instantiating it across a range of structural causal models, including both Gaussian and non-Gaussian settings, with and without unmeasured confounders. Extensive experiments on synthetic and real-world datasets show that ALVGL not only achieves state-of-the-art accuracy but also significantly improves optimization efficiency, making it a reliable and effective solution for differentiable causal discovery.
- Abstract(参考訳): 近年,既存の手法の精度と効率を向上させるための有望な手法として,微分因果発見が出現している。
しかし、潜伏した共同設立者との高次元データやデータに適用する場合、これらの手法は、しばしば既成の連続最適化アルゴリズムに基づいて、膨大な探索空間、目的関数の複雑さ、グラフ理論上の制約の非自明な性質に苦しむ。
結果として、最適化プロセスの指針としてスーパー構造を活用することへの関心が高まっている。
それでも、適切な超構造を適切なレベルの粒度で学習し、様々な設定で効率的に行うことは、大きな課題を提示します。
本稿では,新たな因果発見パイプラインであるALVGLを提案する。
ALVGLはスパース分解とローランク分解を用いてデータの精度行列を学習する。
我々は、この分解を最適化するためにADMM手順を設計し、基礎となる因果構造に最も関係のある精度行列の成分を同定する。
これらの成分は結合されて、真の因果グラフのスーパーセットである超構造を構成する。
この超構造は、より焦点を絞った探索空間で標準的な微分可能な因果探索法を初期化し、最適化効率と精度を両立させる。
我々は、ガウス語と非ガウス語の両方の設定を含む様々な構造因果モデルのインスタンス化によって、ALVGLの汎用性を実証する。
合成および実世界のデータセットに関する大規模な実験は、ALVGLが最先端の精度を達成するだけでなく、最適化の効率を大幅に改善し、異なる因果発見のための信頼性と効果的なソリューションであることを示している。
関連論文リスト
- $ψ$DAG: Projected Stochastic Approximation Iteration for DAG Structure Learning [6.612096312467342]
Directed A Graphs (DAGs) の構造を学ぶことは、ノード数に応じてスケールする可能なグラフの巨大な検索空間のため、大きな課題となる。
近年の進歩は、微分可能指数関数性制約を取り入れた連続最適化タスクとしてこの問題を再定義している。
本稿では,SGD(Gradient Descent)に基づく最適化手法と統合した近似手法を用いて,DAGを学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T12:13:11Z) - LOCAL: Learning with Orientation Matrix to Infer Causal Structure from Time Series Data [51.47827479376251]
LOCALは動的因果構造を復元するための効率的で実装が容易で制約のない手法である。
Asymptotic Causal Learning Mask (ACML) と Dynamic Graph Learning (DGPL)
合成および実世界のデータセットの実験では、LOCALが既存の手法よりも大幅に優れていることが示されている。
論文 参考訳(メタデータ) (2024-10-25T10:48:41Z) - Functional Graphical Models: Structure Enables Offline Data-Driven Optimization [111.28605744661638]
構造がサンプル効率のよいデータ駆動最適化を実現する方法を示す。
また、FGM構造自体を推定するデータ駆動最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-08T22:33:14Z) - Smoothed $f$-Divergence Distributionally Robust Optimization [5.50764401597583]
我々は、特別な種類の分布完全ロバスト最適化(DRO)の定式化が理論的優位性をもたらすと論じる。
DROは、Wasserstein または L'evy-Prokhorov (LP) 距離で滑らかなKullback Leibler (KL) の発散に基づく曖昧性集合を用いる。
論文 参考訳(メタデータ) (2023-06-24T19:22:01Z) - High-Dimensional Bayesian Optimization via Tree-Structured Additive
Models [40.497123136157946]
変数の重複部分集合を持つ低次元関数を合成して高次元目標関数をモデル化する一般化加法モデルを検討する。
私たちの目標は、必要な計算リソースを減らし、より高速なモデル学習を促進することです。
我々は,合成関数と実世界のデータセットに関する様々な実験を通して,本手法の有効性を実証し,議論する。
論文 参考訳(メタデータ) (2020-12-24T03:56:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。