論文の概要: DAG DECORation: Continuous Optimization for Structure Learning under Hidden Confounding
- arxiv url: http://arxiv.org/abs/2510.02117v1
- Date: Thu, 02 Oct 2025 15:23:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 14:32:17.285596
- Title: DAG DECORation: Continuous Optimization for Structure Learning under Hidden Confounding
- Title(参考訳): DAG DeCoration:隠れたコンテキスト下での構造学習を継続的に最適化する
- Authors: Samhita Pal, James O'quinn, Kaveh Aryan, Heather Pua, James P. Long, Amir Asiaee,
- Abstract要約: 本研究では, 線形ガウスSEMの構造学習について検討した。
我々は,DAGと相関雑音モデルとを共同で学習する単一の可能性に基づく推定器であるtextscDECORを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We study structure learning for linear Gaussian SEMs in the presence of latent confounding. Existing continuous methods excel when errors are independent, while deconfounding-first pipelines rely on pervasive factor structure or nonlinearity. We propose \textsc{DECOR}, a single likelihood-based and fully differentiable estimator that jointly learns a DAG and a correlated noise model. Our theory gives simple sufficient conditions for global parameter identifiability: if the mixed graph is bow free and the noise covariance has a uniform eigenvalue margin, then the map from $(\B,\OmegaMat)$ to the observational covariance is injective, so both the directed structure and the noise are uniquely determined. The estimator alternates a smooth-acyclic graph update with a convex noise update and can include a light bow complementarity penalty or a post hoc reconciliation step. On synthetic benchmarks that vary confounding density, graph density, latent rank, and dimension with $n<p$, \textsc{DECOR} matches or outperforms strong baselines and is especially robust when confounding is non-pervasive, while remaining competitive under pervasiveness.
- Abstract(参考訳): 本研究では, 線形ガウスSEMの構造学習について検討した。
既存の連続的な手法は、エラーが独立していれば優れているが、デコンウンディングファーストパイプラインは、広汎な因子構造や非線形性に依存している。
DAGと相関ノイズモデルを共同で学習する単一の確率ベースで完全に微分可能な推定器である‘textsc{DECOR} を提案する。
混合グラフがボウフリーでノイズ共分散が一様固有値マージンを持つなら、$(\B,\OmegaMat)$から観測共分散への写像は単射であり、有向構造もノイズも一意に決定される。
前記推定装置は、滑らかな非環状グラフ更新と凸ノイズ更新とを交互に行い、光弓相補性ペナルティ又はポストホック調停ステップを含むことができる。
共役密度、グラフ密度、潜在ランク、次元が$n<p$, \textsc{DECOR} で異なる合成ベンチマークでは、強い基底線が一致し、特に共役が広範ではない場合に頑健である。
関連論文リスト
- Stability and Generalization of Push-Sum Based Decentralized Optimization over Directed Graphs [55.77845440440496]
プッシュベースの分散通信は、情報交換が非対称である可能性のある通信ネットワークの最適化を可能にする。
我々は、グラディエント・プッシュ(SGP)アルゴリズムのための統一的な一様安定性フレームワークを開発する。
重要な技術的要素は、2つの量に束縛された不均衡認識の一般化である。
論文 参考訳(メタデータ) (2026-02-24T05:32:03Z) - Efficient Sampling with Discrete Diffusion Models: Sharp and Adaptive Guarantees [9.180350432640912]
連続時間マルコフ連鎖(CTMC)の定式化によるスコアベース離散拡散モデルのサンプリング効率について検討した。
一様離散拡散に対して、$$-leapingアルゴリズムは位数$tilde O(d/varepsilon)$の複雑さを達成することを示す。
離散拡散をマスキングするために,本質的な情報理論量によって収束率を制御した$$-leapingサンプルラを導入する。
論文 参考訳(メタデータ) (2026-02-16T18:48:17Z) - Sparse Bayesian Message Passing under Structural Uncertainty [12.402205032785497]
実世界のグラフに関する半教師付き学習は、観測されたグラフが信頼できない、あるいはラベル不合理なヘテロフィリーによってしばしば挑戦される。
多くの既存のグラフニューラルネットワークは、固定された隣接構造に依存するか、正規化によって構造ノイズを処理しようとする。
符号付き隣接行列上の後続分布をモデル化することにより、構造的不確実性を明示的に把握し、各エッジが正、負、欠落することを可能にする。
論文 参考訳(メタデータ) (2026-01-03T15:16:12Z) - Causal Discovery with Mixed Latent Confounding via Precision Decomposition [0.0]
微分可能およびスコアベースDAG学習者は、グローバル潜伏効果を因果エッジと誤解釈することができる。
我々は,これらの役割を分離したモジュール型高精度パイプラインであるtextscDCL-DECORを提案する。
論文 参考訳(メタデータ) (2025-12-31T08:03:41Z) - The Procrustean Bed of Time Series: The Optimization Bias of Point-wise Loss [53.542743390809356]
本稿では,最適化バイアス(EOB)の期待に関する第一原理解析を提案する。
時間列が決定論的で構造化されるほど、ポイントワイドの損失関数によるバイアスがより厳しくなる。
本稿では,DFTとDWTの両原理を同時に実現する具体的ソリューションを提案する。
論文 参考訳(メタデータ) (2025-12-21T06:08:22Z) - Nonlinear Stochastic Gradient Descent and Heavy-tailed Noise: A Unified Framework and High-probability Guarantees [56.80920351680438]
本研究では,重音の存在下でのオンライン学習における高確率収束について検討する。
ノイズモーメントを仮定することなく、幅広い種類の非線形性を保証する。
論文 参考訳(メタデータ) (2024-10-17T18:25:28Z) - High-probability Convergence Bounds for Nonlinear Stochastic Gradient Descent Under Heavy-tailed Noise [59.25598762373543]
重み付き雑音の存在下でのストリーミングデータにおける学習の精度保証について検討した。
解析的に、与えられた問題に対する設定の選択に$ta$を使うことができることを実証する。
論文 参考訳(メタデータ) (2023-10-28T18:53:41Z) - CoLiDE: Concomitant Linear DAG Estimation [12.415463205960156]
観測データから線形方程式への非巡回グラフ構造学習の問題に対処する。
本稿では,空間認識学習DAGのための新しい凸スコア関数を提案する。
論文 参考訳(メタデータ) (2023-10-04T15:32:27Z) - Last-Iterate Convergence of Adaptive Riemannian Gradient Descent for Equilibrium Computation [52.73824786627612]
本稿では,テクスト幾何学的強単調ゲームに対する新たな収束結果を確立する。
我々のキーとなる結果は、RGDがテクスト幾何学的手法で最終定位線形収束を実現することを示しています。
全体として、ユークリッド設定を超えるゲームに対して、幾何学的に非依存な最終点収束解析を初めて提示する。
論文 参考訳(メタデータ) (2023-06-29T01:20:44Z) - Estimating Higher-Order Mixed Memberships via the $\ell_{2,\infty}$
Tensor Perturbation Bound [8.521132000449766]
テンソルブロックモデルの一般化であるテンソル混合メンバーシップブロックモデルを提案する。
我々は,モデルの同定可能性を確立し,計算効率の良い推定手法を提案する。
本手法を実データおよびシミュレーションデータに適用し,個別のコミュニティメンバーシップを持つモデルから特定できない効果を示す。
論文 参考訳(メタデータ) (2022-12-16T18:32:20Z) - Robust Inference of Manifold Density and Geometry by Doubly Stochastic
Scaling [8.271859911016719]
我々は高次元雑音下で頑健な推論のためのツールを開発する。
提案手法は, セルタイプにまたがる技術的ノイズレベルの変動に頑健であることを示す。
論文 参考訳(メタデータ) (2022-09-16T15:39:11Z) - Optimizing Information-theoretical Generalization Bounds via Anisotropic
Noise in SGLD [73.55632827932101]
SGLDにおけるノイズ構造を操作することにより,情報理論の一般化を最適化する。
低経験的リスクを保証するために制約を課すことで、最適なノイズ共分散が期待される勾配共分散の平方根であることを証明する。
論文 参考訳(メタデータ) (2021-10-26T15:02:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。