論文の概要: Learning Large DAGs by Combining Continuous Optimization and Feedback
Arc Set Heuristics
- arxiv url: http://arxiv.org/abs/2107.00571v1
- Date: Thu, 1 Jul 2021 16:10:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-02 13:40:57.873211
- Title: Learning Large DAGs by Combining Continuous Optimization and Feedback
Arc Set Heuristics
- Title(参考訳): 連続最適化とフィードバックアークセットヒューリスティックを組み合わせた大規模DAGの学習
- Authors: Pierre Gillot and Pekka Parviainen
- Abstract要約: 線形構造方程式の場合,DAGを学習するための2つのスケーラブルNPを提案する。
対象関数を最適化するために、制約のない勾配降下に基づくステップを交互に組み合わせてDAGを学習する。
この分離のおかげで、私たちのメソッドは何千もの変数を越えてスケールアップされます。
- 参考スコア(独自算出の注目度): 0.3553493344868413
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayesian networks represent relations between variables using a directed
acyclic graph (DAG). Learning the DAG is an NP-hard problem and exact learning
algorithms are feasible only for small sets of variables. We propose two
scalable heuristics for learning DAGs in the linear structural equation case.
Our methods learn the DAG by alternating between unconstrained gradient
descent-based step to optimize an objective function and solving a maximum
acyclic subgraph problem to enforce acyclicity. Thanks to this decoupling, our
methods scale up beyond thousands of variables.
- Abstract(参考訳): ベイズネットワークは有向非巡回グラフ(DAG)を用いて変数間の関係を表す。
DAGの学習はNPハード問題であり、正確な学習アルゴリズムは少数の変数に対してのみ実現可能である。
線形構造方程式の場合,DAGを学習するための2つのスケーラブルなヒューリスティックを提案する。
目的関数を最適化するための非拘束勾配降下に基づくステップと,最大非循環部分グラフ問題を解いて非循環性を実現することで,dagを学習する。
この分離のおかげで、私たちのメソッドは何千もの変数を超えてスケールアップします。
関連論文リスト
- DAGMA: Learning DAGs via M-matrices and a Log-Determinant Acyclicity
Characterization [46.03369331654967]
対数決定関数(log-det)関数に基づいた,$textitfundamentally different$$ acyclicity キャラクタリゼーションを提案する。
我々の手法は、最先端の手法に対して大きなスピードアップとより小さな構造ハミングに到達できる。
論文 参考訳(メタデータ) (2022-09-16T16:31:27Z) - Truncated Matrix Power Iteration for Differentiable DAG Learning [47.69479930501961]
本稿では,列ベースDAG制約を近似するために,効率的な乱数行列パワーを持つ新しいDAG学習法を提案する。
実験により,DAG学習法は,様々な設定で従来の最先端技術よりも優れていた。
論文 参考訳(メタデータ) (2022-08-30T23:56:12Z) - High-Dimensional Sparse Bayesian Learning without Covariance Matrices [66.60078365202867]
共分散行列の明示的な構成を避ける新しい推論手法を提案する。
本手法では, 数値線形代数と共役勾配アルゴリズムの対角線推定結果とを結合する。
いくつかのシミュレーションにおいて,本手法は計算時間とメモリにおける既存手法よりも拡張性が高い。
論文 参考訳(メタデータ) (2022-02-25T16:35:26Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Learning Bayesian Networks through Birkhoff Polytope: A Relaxation
Method [0.0]
我々は、ガウス線形構造方程式モデルからデータを生成する際に、有向非巡回グラフ(DAG)を学習するための新しい枠組みを確立する。
置換行列推定では,順序推定のNPハード問題を回避する緩和手法を提案する。
本フレームワークは,非循環性制約の高価な検証や,可能な親集合の列挙を必要とせずにDAGを復元する。
論文 参考訳(メタデータ) (2021-07-04T15:04:02Z) - Cogradient Descent for Dependable Learning [64.02052988844301]
双線形最適化問題に対処するために,CoGDアルゴリズムに基づく信頼度の高い学習法を提案する。
CoGDは、ある変数がスパーシティ制約を持つ場合の双線形問題を解くために導入された。
また、特徴と重みの関連を分解するためにも使用できるため、畳み込みニューラルネットワーク(CNN)をより良く訓練するための我々の手法をさらに一般化することができる。
論文 参考訳(メタデータ) (2021-06-20T04:28:20Z) - DAGs with No Curl: An Efficient DAG Structure Learning Approach [62.885572432958504]
近年のDAG構造学習は連続的な非巡回性制約を伴う制約付き連続最適化問題として定式化されている。
本稿では,DAG空間の重み付き隣接行列を直接モデル化し,学習するための新しい学習フレームワークを提案する。
本手法は, 線形および一般化された構造方程式モデルにおいて, ベースラインDAG構造学習法よりも精度が高いが, 効率がよいことを示す。
論文 参考訳(メタデータ) (2021-06-14T07:11:36Z) - On the Role of Sparsity and DAG Constraints for Learning Linear DAGs [16.97675762810828]
ガウス系および非ガウス系におけるDAGモデルの学習におけるスパーシリティとDAG制約の役割について検討した。
確率に基づくスコア関数を提案し, 基本真理DAGと同等のDAGを学習するためには, ソフト・スパシティとDAG制約を適用するだけでよいことを示す。
論文 参考訳(メタデータ) (2020-06-17T23:43:23Z) - Cogradient Descent for Bilinear Optimization [124.45816011848096]
双線形問題に対処するために、CoGDアルゴリズム(Cogradient Descent Algorithm)を導入する。
一方の変数は、他方の変数との結合関係を考慮し、同期勾配降下をもたらす。
本アルゴリズムは,空間的制約下での1変数の問題を解くために応用される。
論文 参考訳(メタデータ) (2020-06-16T13:41:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。