論文の概要: Learning Discrete Directed Acyclic Graphs via Backpropagation
- arxiv url: http://arxiv.org/abs/2210.15353v1
- Date: Thu, 27 Oct 2022 12:03:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-28 12:15:04.136138
- Title: Learning Discrete Directed Acyclic Graphs via Backpropagation
- Title(参考訳): バックプロパゲーションによる離散非巡回グラフの学習
- Authors: Andrew J. Wren, Pasquale Minervini, Luca Franceschi and Valentina
Zantedeschi
- Abstract要約: 近年, バックプロパゲーションによるデータからDAG(Directed Acyclic Graphs)を学習するために, 連続緩和法が提案されている。
離散バックプロパゲーションによるDAG学習フレームワークであるDAG-DBを提案する。
- 参考スコア(独自算出の注目度): 16.823075878437493
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently continuous relaxations have been proposed in order to learn Directed
Acyclic Graphs (DAGs) from data by backpropagation, instead of using
combinatorial optimization. However, a number of techniques for fully discrete
backpropagation could instead be applied. In this paper, we explore that
direction and propose DAG-DB, a framework for learning DAGs by Discrete
Backpropagation. Based on the architecture of Implicit Maximum Likelihood
Estimation [I-MLE, arXiv:2106.01798], DAG-DB adopts a probabilistic approach to
the problem, sampling binary adjacency matrices from an implicit probability
distribution. DAG-DB learns a parameter for the distribution from the loss
incurred by each sample, performing competitively using either of two fully
discrete backpropagation techniques, namely I-MLE and Straight-Through
Estimation.
- Abstract(参考訳): 近年、組合せ最適化の代わりにバックプロパゲーションによりデータからDAG(Directed Acyclic Graphs)を学習するために連続緩和法が提案されている。
しかし、完全な離散的なバックプロパゲーションのための多くの技術を適用することができた。
本稿では,DAGを離散バックプロパゲーションにより学習するフレームワークであるDAG-DBを提案する。
Implicit Maximum Likelihood Estimation [I-MLE, arXiv:2106.01798] のアーキテクチャに基づいて、DAG-DBはこの問題に対する確率的アプローチを採用し、暗黙の確率分布から二項隣接行列をサンプリングする。
DAG-DBは、各サンプルから得られた損失から分布のパラメータを学習し、完全に離散的な2つのバックプロパゲーション手法、すなわちI-MLEとStraight-Through Estimationを用いて競合的に実行する。
関連論文リスト
- Synergistic eigenanalysis of covariance and Hessian matrices for
enhanced binary classification [75.90957645766676]
本稿では, 学習モデルを用いて評価したヘッセン行列をトレーニングセットで評価した共分散行列の固有解析と, 深層学習モデルで評価したヘッセン行列を組み合わせた新しい手法を提案する。
我々のアプローチは、クラス間の平均距離を最大化し、クラス内の分散を最小化する能力を確立する形式的な証明によって裏付けられている。
論文 参考訳(メタデータ) (2024-02-14T16:10:42Z) - BayesDAG: Gradient-Based Posterior Inference for Causal Discovery [30.027520859604955]
マルコフ・チェイン・モンテカルロと変分推論を組み合わせたスケーラブルな因果探索フレームワークを提案する。
本手法では,DAG正則化を必要とせず,直接後部からDAGを採取する。
我々は、置換に基づくDAG学習に新しい等価性をもたらし、置換によって定義された緩和された推定器を使用する可能性を開く。
論文 参考訳(メタデータ) (2023-07-26T02:34:13Z) - BCD Nets: Scalable Variational Approaches for Bayesian Causal Discovery [97.79015388276483]
構造方程式モデル(SEM)は、有向非巡回グラフ(DAG)を介して表される因果関係を推論する効果的な枠組みである。
近年の進歩により、観測データからDAGの有効最大点推定が可能となった。
線形ガウス SEM を特徴付ける DAG 上の分布を推定するための変分フレームワークである BCD Nets を提案する。
論文 参考訳(メタデータ) (2021-12-06T03:35:21Z) - Learning linear non-Gaussian directed acyclic graph with diverging
number of nodes [12.49848873864773]
有向非巡回グラフ(DAG)として表される非巡回モデルは、収集ノード間の方向因果関係を表現するために広く用いられている。
本研究では,高次元の場合において,連続的な非ガウス分布の雑音が生じるような線形非ガウスDAGを効率よく学習する方法を提案する。
論文 参考訳(メタデータ) (2021-11-01T07:34:53Z) - Riemannian classification of EEG signals with missing values [67.90148548467762]
本稿では脳波の分類に欠落したデータを扱うための2つの方法を提案する。
第1のアプローチでは、インプットされたデータと$k$-nearestの隣人アルゴリズムとの共分散を推定し、第2のアプローチでは、期待最大化アルゴリズム内で観測データの可能性を活用することにより、観測データに依存する。
その結果, 提案手法は観測データに基づく分類よりも優れており, 欠落したデータ比が増大しても高い精度を維持することができることがわかった。
論文 参考訳(メタデータ) (2021-10-19T14:24:50Z) - Unfolding Projection-free SDP Relaxation of Binary Graph Classifier via
GDPA Linearization [59.87663954467815]
アルゴリズムの展開は、モデルベースのアルゴリズムの各イテレーションをニューラルネットワーク層として実装することにより、解釈可能で類似のニューラルネットワークアーキテクチャを生成する。
本稿では、Gershgorin disc perfect alignment (GDPA)と呼ばれる最近の線形代数定理を利用して、二進グラフの半定値プログラミング緩和(SDR)のためのプロジェクションフリーアルゴリズムをアンロールする。
実験結果から,我々の未学習ネットワークは純粋モデルベースグラフ分類器よりも優れ,純粋データ駆動ネットワークに匹敵する性能を示したが,パラメータははるかに少なかった。
論文 参考訳(メタデータ) (2021-09-10T07:01:15Z) - Learning Bayesian Networks through Birkhoff Polytope: A Relaxation
Method [0.0]
我々は、ガウス線形構造方程式モデルからデータを生成する際に、有向非巡回グラフ(DAG)を学習するための新しい枠組みを確立する。
置換行列推定では,順序推定のNPハード問題を回避する緩和手法を提案する。
本フレームワークは,非循環性制約の高価な検証や,可能な親集合の列挙を必要とせずにDAGを復元する。
論文 参考訳(メタデータ) (2021-07-04T15:04:02Z) - DAGs with No Curl: An Efficient DAG Structure Learning Approach [62.885572432958504]
近年のDAG構造学習は連続的な非巡回性制約を伴う制約付き連続最適化問題として定式化されている。
本稿では,DAG空間の重み付き隣接行列を直接モデル化し,学習するための新しい学習フレームワークを提案する。
本手法は, 線形および一般化された構造方程式モデルにおいて, ベースラインDAG構造学習法よりも精度が高いが, 効率がよいことを示す。
論文 参考訳(メタデータ) (2021-06-14T07:11:36Z) - Denoising individual bias for a fairer binary submatrix detection [14.065968221500246]
二項行列の低階表現はスパース・アトリビュート・アソシエーションの解離において強力である。
既存のバイナリ行列分解 (BMF) やコクラスタリング (CC) の手法は、しばしば背景雑音(バックグラウンドノイズ)を仮定する。
本稿では,真のパターンの検出を最適化するバイナリデータ記述フレームワークであるBINDを提案する。
論文 参考訳(メタデータ) (2020-07-31T02:52:25Z) - Model Fusion with Kullback--Leibler Divergence [58.20269014662046]
異種データセットから学習した後続分布を融合する手法を提案する。
我々のアルゴリズムは、融合モデルと個々のデータセット後部の両方に対する平均場仮定に依存している。
論文 参考訳(メタデータ) (2020-07-13T03:27:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。