論文の概要: DAGs with No Curl: An Efficient DAG Structure Learning Approach
- arxiv url: http://arxiv.org/abs/2106.07197v1
- Date: Mon, 14 Jun 2021 07:11:36 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-15 16:38:04.778102
- Title: DAGs with No Curl: An Efficient DAG Structure Learning Approach
- Title(参考訳): カールのないDAG:効率的なDAG構造学習手法
- Authors: Yue Yu, Tian Gao, Naiyu Yin, Qiang Ji
- Abstract要約: 近年のDAG構造学習は連続的な非巡回性制約を伴う制約付き連続最適化問題として定式化されている。
本稿では,DAG空間の重み付き隣接行列を直接モデル化し,学習するための新しい学習フレームワークを提案する。
本手法は, 線形および一般化された構造方程式モデルにおいて, ベースラインDAG構造学習法よりも精度が高いが, 効率がよいことを示す。
- 参考スコア(独自算出の注目度): 62.885572432958504
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recently directed acyclic graph (DAG) structure learning is formulated as a
constrained continuous optimization problem with continuous acyclicity
constraints and was solved iteratively through subproblem optimization. To
further improve efficiency, we propose a novel learning framework to model and
learn the weighted adjacency matrices in the DAG space directly. Specifically,
we first show that the set of weighted adjacency matrices of DAGs are
equivalent to the set of weighted gradients of graph potential functions, and
one may perform structure learning by searching in this equivalent set of DAGs.
To instantiate this idea, we propose a new algorithm, DAG-NoCurl, which solves
the optimization problem efficiently with a two-step procedure: 1) first we
find an initial cyclic solution to the optimization problem, and 2) then we
employ the Hodge decomposition of graphs and learn an acyclic graph by
projecting the cyclic graph to the gradient of a potential function.
Experimental studies on benchmark datasets demonstrate that our method provides
comparable accuracy but better efficiency than baseline DAG structure learning
methods on both linear and generalized structural equation models, often by
more than one order of magnitude.
- Abstract(参考訳): 近年,連続的非巡回性制約付き制約付き連続最適化問題としてDAG構造学習が定式化され,サブプロブレム最適化により反復的に解かれた。
そこで本研究では,DAG空間の重み付き隣接行列を直接モデル化し,学習するための新しい学習フレームワークを提案する。
具体的には、DAGの重み付き隣接行列の集合がグラフポテンシャル関数の重み付き勾配の集合と等価であることを示し、この等価なDAGの集合を探索することにより構造学習を行うことができる。
このアイデアをインスタンス化するために, 1 つの手順で最適化問題を効率的に解く新しいアルゴリズム DAG-NoCurl を提案する: 1) まず最適化問題に対する初期巡回解を見つけ, 2) グラフのホッジ分解を用いて、巡回グラフをポテンシャル関数の勾配に投影することで非巡回グラフを学習する。
ベンチマークデータセットに関する実験的研究は、線形および一般化構造方程式モデルの両方において、ベースラインdag構造学習法よりも精度は高いが効率が良いことを証明している。
関連論文リスト
- $ψ$DAG: Projected Stochastic Approximation Iteration for DAG Structure Learning [6.612096312467342]
Directed A Graphs (DAGs) の構造を学ぶことは、ノード数に応じてスケールする可能なグラフの巨大な検索空間のため、大きな課題となる。
近年の進歩は、微分可能指数関数性制約を取り入れた連続最適化タスクとしてこの問題を再定義している。
本稿では,SGD(Gradient Descent)に基づく最適化手法と統合した近似手法を用いて,DAGを学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T12:13:11Z) - Non-negative Weighted DAG Structure Learning [12.139158398361868]
本研究は,真DAGを夜間観測から学習する問題に対処する。
本稿では, ar を返すことが保証される手法に基づく DAG 回復アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-09-12T09:41:29Z) - Recovering Linear Causal Models with Latent Variables via Cholesky
Factorization of Covariance Matrix [21.698480201955213]
観測データの共分散行列のコレスキー分解に基づくDAG構造復元アルゴリズムを提案する。
合成および実世界のデータセットでは、アルゴリズムは従来の手法よりも大幅に高速で、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-01T17:27:49Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - Multi-task Learning of Order-Consistent Causal Graphs [59.9575145128345]
我々は、$K関連ガウス非巡回グラフ(DAG)の発見問題を考える。
マルチタスク学習環境下では, 線形構造方程式モデルを学習するためのMLE ($l_1/l$-regularized maximum chance estimator) を提案する。
理論的には、関係するタスクにまたがるデータを活用することで、因果順序を復元する際のサンプルの複雑さをより高めることができることを示す。
論文 参考訳(メタデータ) (2021-11-03T22:10:18Z) - Learning Large DAGs by Combining Continuous Optimization and Feedback
Arc Set Heuristics [0.3553493344868413]
線形構造方程式の場合,DAGを学習するための2つのスケーラブルNPを提案する。
対象関数を最適化するために、制約のない勾配降下に基づくステップを交互に組み合わせてDAGを学習する。
この分離のおかげで、私たちのメソッドは何千もの変数を越えてスケールアップされます。
論文 参考訳(メタデータ) (2021-07-01T16:10:21Z) - A Bi-Level Framework for Learning to Solve Combinatorial Optimization on
Graphs [91.07247251502564]
本稿では,2つの世界の長所を結合するハイブリッドな手法を提案する。この手法では,グラフを最適化する上層学習手法とバイレベルフレームワークを開発する。
このような二段階のアプローチは、元のハードCOでの学習を単純化し、モデルキャパシティの需要を効果的に軽減することができる。
論文 参考訳(メタデータ) (2021-06-09T09:18:18Z) - Leveraging Non-uniformity in First-order Non-convex Optimization [93.6817946818977]
目的関数の非一様洗練は、emphNon-uniform Smoothness(NS)とemphNon-uniform Lojasiewicz inequality(NL)につながる
新しい定義は、古典的な$Omega (1/t2)$下界よりも早く大域的最適性に収束する新しい幾何学的一階法を刺激する。
論文 参考訳(メタデータ) (2021-05-13T04:23:07Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z) - Learning DAGs without imposing acyclicity [0.6526824510982799]
本研究では,非巡回性制約を課すことなく,データから有向非巡回グラフ(DAG)を学習可能であることを示す。
このアプローチは計算効率が良く、古典的な構造学習アルゴリズムのような複雑性の爆発の影響を受けない。
論文 参考訳(メタデータ) (2020-06-04T16:52:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。