論文の概要: Constraint-Free Structure Learning with Smooth Acyclic Orientations
- arxiv url: http://arxiv.org/abs/2309.08406v1
- Date: Fri, 15 Sep 2023 14:08:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-18 14:32:13.731626
- Title: Constraint-Free Structure Learning with Smooth Acyclic Orientations
- Title(参考訳): Smooth Acyclic Orientationを用いた制約なし構造学習
- Authors: Riccardo Massidda, Francesco Landolfi, Martina Cinquini, Davide Bacciu
- Abstract要約: 非循環構造学習のための制約のない連続最適化スキームであるCOSMOを導入する。
明示的な制約がないにもかかわらず、COSMOは常に非巡回解に収束することを示す。
- 参考スコア(独自算出の注目度): 16.556484521585197
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The structure learning problem consists of fitting data generated by a
Directed Acyclic Graph (DAG) to correctly reconstruct its arcs. In this
context, differentiable approaches constrain or regularize the optimization
problem using a continuous relaxation of the acyclicity property. The
computational cost of evaluating graph acyclicity is cubic on the number of
nodes and significantly affects scalability. In this paper we introduce COSMO,
a constraint-free continuous optimization scheme for acyclic structure
learning. At the core of our method, we define a differentiable approximation
of an orientation matrix parameterized by a single priority vector. Differently
from previous work, our parameterization fits a smooth orientation matrix and
the resulting acyclic adjacency matrix without evaluating acyclicity at any
step. Despite the absence of explicit constraints, we prove that COSMO always
converges to an acyclic solution. In addition to being asymptotically faster,
our empirical analysis highlights how COSMO performance on graph reconstruction
compares favorably with competing structure learning methods.
- Abstract(参考訳): 構造学習問題は、DAG(Directed Acyclic Graph)によって生成されたフィッティングデータから成り、そのアークを正しく再構築する。
この文脈において、微分可能アプローチは非巡回性の性質の連続緩和を用いて最適化問題を制約または正則化する。
グラフの非循環性を評価する計算コストはノード数で立方体であり、スケーラビリティに大きく影響する。
本稿では,非循環構造学習のための制約のない連続最適化スキームであるCOSMOを紹介する。
提案手法の核心では, 1 つの優先度ベクトルによってパラメータ化される向き行列の微分可能近似を定義する。
従来の研究と異なり、パラメータ化は任意のステップで非巡回性を評価することなく、滑らかな配向行列と結果として生じる非巡回隣接行列に適合する。
明示的な制約がないにもかかわらず、COSMOは常に非巡回解に収束することを示す。
漸近的に高速であるだけでなく、グラフ再構成におけるCOSMOのパフォーマンスが、競合する構造学習法と比較できることを示す経験的分析を行った。
関連論文リスト
- Non-negative Weighted DAG Structure Learning [12.139158398361868]
本研究は,真DAGを夜間観測から学習する問題に対処する。
本稿では, ar を返すことが保証される手法に基づく DAG 回復アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-09-12T09:41:29Z) - Kernel-Based Differentiable Learning of Non-Parametric Directed Acyclic Graphical Models [17.52142371968811]
因果発見は因果モデルを符号化する有向非巡回グラフ (DAG) を学ぶことに相当する。
近年の研究では、因果発見を連続最適化問題として再検討し、探索を回避しようとしている。
論文 参考訳(メタデータ) (2024-08-20T16:09:40Z) - Recovering Linear Causal Models with Latent Variables via Cholesky
Factorization of Covariance Matrix [21.698480201955213]
観測データの共分散行列のコレスキー分解に基づくDAG構造復元アルゴリズムを提案する。
合成および実世界のデータセットでは、アルゴリズムは従来の手法よりも大幅に高速で、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-01T17:27:49Z) - Stable Nonconvex-Nonconcave Training via Linear Interpolation [51.668052890249726]
本稿では,ニューラルネットワークトレーニングを安定化(大規模)するための原理的手法として,線形アヘッドの理論解析を提案する。
最適化過程の不安定性は、しばしば損失ランドスケープの非単調性によって引き起こされるものであり、非拡張作用素の理論を活用することによって線型性がいかに役立つかを示す。
論文 参考訳(メタデータ) (2023-10-20T12:45:12Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - Object Representations as Fixed Points: Training Iterative Refinement
Algorithms with Implicit Differentiation [88.14365009076907]
反復的洗練は表現学習に有用なパラダイムである。
トレーニングの安定性とトラクタビリティを向上させる暗黙の差別化アプローチを開発する。
論文 参考訳(メタデータ) (2022-07-02T10:00:35Z) - Efficient Neural Causal Discovery without Acyclicity Constraints [30.08586535981525]
本研究では,有向非巡回因果グラフの効率的な構造学習法であるENCOを提案する。
実験の結果,ENCOは数百ノードのグラフを効率よく回収できることがわかった。
論文 参考訳(メタデータ) (2021-07-22T07:01:41Z) - DAGs with No Curl: An Efficient DAG Structure Learning Approach [62.885572432958504]
近年のDAG構造学習は連続的な非巡回性制約を伴う制約付き連続最適化問題として定式化されている。
本稿では,DAG空間の重み付き隣接行列を直接モデル化し,学習するための新しい学習フレームワークを提案する。
本手法は, 線形および一般化された構造方程式モデルにおいて, ベースラインDAG構造学習法よりも精度が高いが, 効率がよいことを示す。
論文 参考訳(メタデータ) (2021-06-14T07:11:36Z) - A Bregman Method for Structure Learning on Sparse Directed Acyclic
Graphs [84.7328507118758]
構造学習のためのBregman近位勾配法を開発した。
高い非線形反復に対する曲率の影響を計測する。
様々な合成および実集合上で本手法をテストする。
論文 参考訳(メタデータ) (2020-11-05T11:37:44Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。