論文の概要: Smooth, Sparse, and Stable: Finite-Time Exact Skeleton Recovery via Smoothed Proximal Gradients
- arxiv url: http://arxiv.org/abs/2601.18189v1
- Date: Mon, 26 Jan 2026 06:16:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.69914
- Title: Smooth, Sparse, and Stable: Finite-Time Exact Skeleton Recovery via Smoothed Proximal Gradients
- Title(参考訳): Smooth, Sparse, Stable:Smoothed Proximal Gradientsによる有限時間エクササイズ骨格回復
- Authors: Rui Wu, Yongjun Li,
- Abstract要約: AHOC(Hybrid-Order Acyclicity Constraint)を提案し、Smoothed Proximal Gradient(SPG-AHOC)を介して最適化することで、連続最適化と離散グラフ構造の間のギャップを埋める。
そこで, SPG-AHOC では, 滑らかな近似を最適化しても, 有限繰り返しの正確なDAGサポート(構造)を復元する。
この結果から構造的あいまいさを排除し、アルゴリズムは切り抜きなしで正確なゼロエントリを持つグラフを返却する。
- 参考スコア(独自算出の注目度): 2.7920588009522755
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Continuous optimization has significantly advanced causal discovery, yet existing methods (e.g., NOTEARS) generally guarantee only asymptotic convergence to a stationary point. This often yields dense weighted matrices that require arbitrary post-hoc thresholding to recover a DAG. This gap between continuous optimization and discrete graph structures remains a fundamental challenge. In this paper, we bridge this gap by proposing the Hybrid-Order Acyclicity Constraint (AHOC) and optimizing it via the Smoothed Proximal Gradient (SPG-AHOC). Leveraging the Manifold Identification Property of proximal algorithms, we provide a rigorous theoretical guarantee: the Finite-Time Oracle Property. We prove that under standard identifiability assumptions, SPG-AHOC recovers the exact DAG support (structure) in finite iterations, even when optimizing a smoothed approximation. This result eliminates structural ambiguity, as our algorithm returns graphs with exact zero entries without heuristic truncation. Empirically, SPG-AHOC achieves state-of-the-art accuracy and strongly corroborates the finite-time identification theory.
- Abstract(参考訳): 連続的な最適化は因果発見を大幅に進歩させたが、既存の手法(例えばNOTEARS)は一般に静止点への漸近収束のみを保証する。
これはしばしば、DAGを回復するために任意のポストホックしきい値を必要とする密度の重み付け行列をもたらす。
連続最適化と離散グラフ構造の間のこのギャップは、依然として根本的な課題である。
本稿では, AHOC (Hybrid-Order Acyclicity Constraint) を提案し, Smoothed Proximal Gradient (SPG-AHOC) を介して最適化することによって, このギャップを埋める。
近似アルゴリズムのマニフォールド識別特性を利用すると、厳密な理論的保証:有限時間Oracleプロパティを提供する。
そこで, SPG-AHOC では, 滑らかな近似を最適化しても, 有限繰り返しの正確なDAGサポート(構造)を復元する。
この結果は構造的曖昧さを排除し、我々のアルゴリズムはヒューリスティック・トランケーションを伴わずに正確なゼロエントリを持つグラフを返却する。
経験的に、SPG-AHOCは最先端の精度を達成し、有限時間同定理論を強く裏付ける。
関連論文リスト
- Stopping Rules for Stochastic Gradient Descent via Anytime-Valid Confidence Sequences [51.56484100374058]
凸最適化のための勾配降下(SGD)の停止規則について検討した。
我々は、投影されたSGDの重み付き平均準最適度に対して、任意の有意、データ依存の高信頼シーケンスを開発する。
これらは、厳格でタイムユニフォームなパフォーマンス保証と、有限時間$varepsilon$-optimality証明書である。
論文 参考訳(メタデータ) (2025-12-15T09:26:45Z) - Non-negative Weighted DAG Structure Learning [12.139158398361868]
本研究は,真DAGを夜間観測から学習する問題に対処する。
本稿では, ar を返すことが保証される手法に基づく DAG 回復アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-09-12T09:41:29Z) - CoLiDE: Concomitant Linear DAG Estimation [12.415463205960156]
観測データから線形方程式への非巡回グラフ構造学習の問題に対処する。
本稿では,空間認識学習DAGのための新しい凸スコア関数を提案する。
論文 参考訳(メタデータ) (2023-10-04T15:32:27Z) - Last-Iterate Convergence of Adaptive Riemannian Gradient Descent for Equilibrium Computation [52.73824786627612]
本稿では,テクスト幾何学的強単調ゲームに対する新たな収束結果を確立する。
我々のキーとなる結果は、RGDがテクスト幾何学的手法で最終定位線形収束を実現することを示しています。
全体として、ユークリッド設定を超えるゲームに対して、幾何学的に非依存な最終点収束解析を初めて提示する。
論文 参考訳(メタデータ) (2023-06-29T01:20:44Z) - Exploring the Algorithm-Dependent Generalization of AUPRC Optimization
with List Stability [107.65337427333064]
AUPRC(Area Under the Precision-Recall Curve)の最適化は、機械学習にとって重要な問題である。
本研究では, AUPRC最適化の単依存一般化における最初の試行について述べる。
3つの画像検索データセットの実験は、我々のフレームワークの有効性と健全性に言及する。
論文 参考訳(メタデータ) (2022-09-27T09:06:37Z) - On the Convergence of mSGD and AdaGrad for Stochastic Optimization [0.696125353550498]
凸降下(SGD)は、過去10年間に機械学習に大きく開発され、広く応用されてきた。
モーメントベースのSGD(mSGD)や適応的勾配最適化(AdaGrad)など、多くの競合や応用においてSGDよりも優れている修正SGD型アルゴリズムもある。
我々は,機械学習における任意の滑らかな(不可能かもしれない)損失関数に対するmSGDとAdaGradの収束解析に着目する。
論文 参考訳(メタデータ) (2022-01-26T22:02:21Z) - Distributed stochastic optimization with large delays [59.95552973784946]
大規模最適化問題を解決する最も広く使われている手法の1つは、分散非同期勾配勾配(DASGD)である。
DASGDは同じ遅延仮定の下で大域的最適実装モデルに収束することを示す。
論文 参考訳(メタデータ) (2021-07-06T21:59:49Z) - Stochastic Gradient Descent-Ascent and Consensus Optimization for Smooth
Games: Convergence Analysis under Expected Co-coercivity [49.66890309455787]
本稿では,SGDA と SCO の最終的な収束保証として,期待されるコヒーレンシティ条件を導入し,その利点を説明する。
定常的なステップサイズを用いた場合、両手法の線形収束性を解の近傍に証明する。
我々の収束保証は任意のサンプリングパラダイムの下で保たれ、ミニバッチの複雑さに関する洞察を与える。
論文 参考訳(メタデータ) (2021-06-30T18:32:46Z) - Stochastic Reweighted Gradient Descent [4.355567556995855]
SRG(stochastic reweighted gradient)と呼ばれる重要サンプリングに基づくアルゴリズムを提案する。
我々は、提案手法の時間とメモリオーバーヘッドに特に注意を払っています。
我々はこの発見を裏付ける実験結果を示す。
論文 参考訳(メタデータ) (2021-03-23T04:09:43Z) - Stability of Stochastic Gradient Descent on Nonsmooth Convex Losses [52.039438701530905]
任意のリプシッツ非平滑凸損失に対して,数種類の勾配勾配降下(SGD)に対して,鋭い上下境界を与える。
我々の限界は、極端に過剰な集団リスクを伴う、微分的にプライベートな非平滑凸最適化のための新しいアルゴリズムを導出することを可能にする。
論文 参考訳(メタデータ) (2020-06-12T02:45:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。