論文の概要: DAG DECORation: Continuous Optimization for Structure Learning under Hidden Confounding
- arxiv url: http://arxiv.org/abs/2510.02117v1
- Date: Thu, 02 Oct 2025 15:23:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 14:32:17.285596
- Title: DAG DECORation: Continuous Optimization for Structure Learning under Hidden Confounding
- Title(参考訳): DAG DeCoration:隠れたコンテキスト下での構造学習を継続的に最適化する
- Authors: Samhita Pal, James O'quinn, Kaveh Aryan, Heather Pua, James P. Long, Amir Asiaee,
- Abstract要約: 本研究では, 線形ガウスSEMの構造学習について検討した。
我々は,DAGと相関雑音モデルとを共同で学習する単一の可能性に基づく推定器であるtextscDECORを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We study structure learning for linear Gaussian SEMs in the presence of latent confounding. Existing continuous methods excel when errors are independent, while deconfounding-first pipelines rely on pervasive factor structure or nonlinearity. We propose \textsc{DECOR}, a single likelihood-based and fully differentiable estimator that jointly learns a DAG and a correlated noise model. Our theory gives simple sufficient conditions for global parameter identifiability: if the mixed graph is bow free and the noise covariance has a uniform eigenvalue margin, then the map from $(\B,\OmegaMat)$ to the observational covariance is injective, so both the directed structure and the noise are uniquely determined. The estimator alternates a smooth-acyclic graph update with a convex noise update and can include a light bow complementarity penalty or a post hoc reconciliation step. On synthetic benchmarks that vary confounding density, graph density, latent rank, and dimension with $n<p$, \textsc{DECOR} matches or outperforms strong baselines and is especially robust when confounding is non-pervasive, while remaining competitive under pervasiveness.
- Abstract(参考訳): 本研究では, 線形ガウスSEMの構造学習について検討した。
既存の連続的な手法は、エラーが独立していれば優れているが、デコンウンディングファーストパイプラインは、広汎な因子構造や非線形性に依存している。
DAGと相関ノイズモデルを共同で学習する単一の確率ベースで完全に微分可能な推定器である‘textsc{DECOR} を提案する。
混合グラフがボウフリーでノイズ共分散が一様固有値マージンを持つなら、$(\B,\OmegaMat)$から観測共分散への写像は単射であり、有向構造もノイズも一意に決定される。
前記推定装置は、滑らかな非環状グラフ更新と凸ノイズ更新とを交互に行い、光弓相補性ペナルティ又はポストホック調停ステップを含むことができる。
共役密度、グラフ密度、潜在ランク、次元が$n<p$, \textsc{DECOR} で異なる合成ベンチマークでは、強い基底線が一致し、特に共役が広範ではない場合に頑健である。
関連論文リスト
- Nonlinear Stochastic Gradient Descent and Heavy-tailed Noise: A Unified Framework and High-probability Guarantees [56.80920351680438]
本研究では,重音の存在下でのオンライン学習における高確率収束について検討する。
ノイズモーメントを仮定することなく、幅広い種類の非線形性を保証する。
論文 参考訳(メタデータ) (2024-10-17T18:25:28Z) - High-probability Convergence Bounds for Nonlinear Stochastic Gradient Descent Under Heavy-tailed Noise [59.25598762373543]
重み付き雑音の存在下でのストリーミングデータにおける学習の精度保証について検討した。
解析的に、与えられた問題に対する設定の選択に$ta$を使うことができることを実証する。
論文 参考訳(メタデータ) (2023-10-28T18:53:41Z) - CoLiDE: Concomitant Linear DAG Estimation [12.415463205960156]
観測データから線形方程式への非巡回グラフ構造学習の問題に対処する。
本稿では,空間認識学習DAGのための新しい凸スコア関数を提案する。
論文 参考訳(メタデータ) (2023-10-04T15:32:27Z) - Estimating Higher-Order Mixed Memberships via the $\ell_{2,\infty}$
Tensor Perturbation Bound [8.521132000449766]
テンソルブロックモデルの一般化であるテンソル混合メンバーシップブロックモデルを提案する。
我々は,モデルの同定可能性を確立し,計算効率の良い推定手法を提案する。
本手法を実データおよびシミュレーションデータに適用し,個別のコミュニティメンバーシップを持つモデルから特定できない効果を示す。
論文 参考訳(メタデータ) (2022-12-16T18:32:20Z) - Robust Inference of Manifold Density and Geometry by Doubly Stochastic
Scaling [8.271859911016719]
我々は高次元雑音下で頑健な推論のためのツールを開発する。
提案手法は, セルタイプにまたがる技術的ノイズレベルの変動に頑健であることを示す。
論文 参考訳(メタデータ) (2022-09-16T15:39:11Z) - Optimizing Information-theoretical Generalization Bounds via Anisotropic
Noise in SGLD [73.55632827932101]
SGLDにおけるノイズ構造を操作することにより,情報理論の一般化を最適化する。
低経験的リスクを保証するために制約を課すことで、最適なノイズ共分散が期待される勾配共分散の平方根であることを証明する。
論文 参考訳(メタデータ) (2021-10-26T15:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。