論文の概要: Learning Large DAGs by Combining Continuous Optimization and Feedback
Arc Set Heuristics
- arxiv url: http://arxiv.org/abs/2107.00571v1
- Date: Thu, 1 Jul 2021 16:10:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-02 13:40:57.873211
- Title: Learning Large DAGs by Combining Continuous Optimization and Feedback
Arc Set Heuristics
- Title(参考訳): 連続最適化とフィードバックアークセットヒューリスティックを組み合わせた大規模DAGの学習
- Authors: Pierre Gillot and Pekka Parviainen
- Abstract要約: 線形構造方程式の場合,DAGを学習するための2つのスケーラブルNPを提案する。
対象関数を最適化するために、制約のない勾配降下に基づくステップを交互に組み合わせてDAGを学習する。
この分離のおかげで、私たちのメソッドは何千もの変数を越えてスケールアップされます。
- 参考スコア(独自算出の注目度): 0.3553493344868413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian networks represent relations between variables using a directed
acyclic graph (DAG). Learning the DAG is an NP-hard problem and exact learning
algorithms are feasible only for small sets of variables. We propose two
scalable heuristics for learning DAGs in the linear structural equation case.
Our methods learn the DAG by alternating between unconstrained gradient
descent-based step to optimize an objective function and solving a maximum
acyclic subgraph problem to enforce acyclicity. Thanks to this decoupling, our
methods scale up beyond thousands of variables.
- Abstract(参考訳): ベイズネットワークは有向非巡回グラフ(DAG)を用いて変数間の関係を表す。
DAGの学習はNPハード問題であり、正確な学習アルゴリズムは少数の変数に対してのみ実現可能である。
線形構造方程式の場合,DAGを学習するための2つのスケーラブルなヒューリスティックを提案する。
目的関数を最適化するための非拘束勾配降下に基づくステップと,最大非循環部分グラフ問題を解いて非循環性を実現することで,dagを学習する。
この分離のおかげで、私たちのメソッドは何千もの変数を超えてスケールアップします。
関連論文リスト
- $ψ$DAG: Projected Stochastic Approximation Iteration for DAG Structure Learning [6.612096312467342]
Directed A Graphs (DAGs) の構造を学ぶことは、ノード数に応じてスケールする可能なグラフの巨大な検索空間のため、大きな課題となる。
近年の進歩は、微分可能指数関数性制約を取り入れた連続最適化タスクとしてこの問題を再定義している。
本稿では,SGD(Gradient Descent)に基づく最適化手法と統合した近似手法を用いて,DAGを学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T12:13:11Z) - Non-negative Weighted DAG Structure Learning [12.139158398361868]
本研究は,真DAGを夜間観測から学習する問題に対処する。
本稿では, ar を返すことが保証される手法に基づく DAG 回復アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-09-12T09:41:29Z) - Learning Directed Acyclic Graphs from Partial Orderings [9.387234607473054]
有向非巡回グラフ(DAG)は、確率変数間の因果関係をモデル化するために一般的に用いられる。
本稿では,変数の部分的因果順序付けが可能である場合のDAG学習の中間的問題について考察する。
低次元および高次元問題に対する部分順序付けと効率的な推定アルゴリズムを活用するための一般的な推定フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-24T06:14:50Z) - Truncated Matrix Power Iteration for Differentiable DAG Learning [47.69479930501961]
本稿では,列ベースDAG制約を近似するために,効率的な乱数行列パワーを持つ新しいDAG学習法を提案する。
実験により,DAG学習法は,様々な設定で従来の最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2022-08-30T23:56:12Z) - High-Dimensional Sparse Bayesian Learning without Covariance Matrices [66.60078365202867]
共分散行列の明示的な構成を避ける新しい推論手法を提案する。
本手法では, 数値線形代数と共役勾配アルゴリズムの対角線推定結果とを結合する。
いくつかのシミュレーションにおいて,本手法は計算時間とメモリにおける既存手法よりも拡張性が高い。
論文 参考訳(メタデータ) (2022-02-25T16:35:26Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Cogradient Descent for Dependable Learning [64.02052988844301]
双線形最適化問題に対処するために,CoGDアルゴリズムに基づく信頼度の高い学習法を提案する。
CoGDは、ある変数がスパーシティ制約を持つ場合の双線形問題を解くために導入された。
また、特徴と重みの関連を分解するためにも使用できるため、畳み込みニューラルネットワーク(CNN)をより良く訓練するための我々の手法をさらに一般化することができる。
論文 参考訳(メタデータ) (2021-06-20T04:28:20Z) - DAGs with No Curl: An Efficient DAG Structure Learning Approach [62.885572432958504]
近年のDAG構造学習は連続的な非巡回性制約を伴う制約付き連続最適化問題として定式化されている。
本稿では,DAG空間の重み付き隣接行列を直接モデル化し,学習するための新しい学習フレームワークを提案する。
本手法は, 線形および一般化された構造方程式モデルにおいて, ベースラインDAG構造学習法よりも精度が高いが, 効率がよいことを示す。
論文 参考訳(メタデータ) (2021-06-14T07:11:36Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。