論文の概要: On the Sparse DAG Structure Learning Based on Adaptive Lasso
- arxiv url: http://arxiv.org/abs/2209.02946v1
- Date: Wed, 7 Sep 2022 05:47:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-08 12:08:33.992013
- Title: On the Sparse DAG Structure Learning Based on Adaptive Lasso
- Title(参考訳): 適応ラッソに基づくスパースDAG構造学習について
- Authors: Danru Xu, Erdun Gao, Wei Huang, Mingming Gong
- Abstract要約: 適応NOTEARS[30]という,事前定義されたしきい値のないデータ駆動型DAG構造学習手法を開発した。
適応型NOTEARSは特定の条件下でのオラクル特性を享受できることを示し, シミュレーションの結果, エッジのギャップをゼロに設定することなく, 提案手法の有効性を検証した。
- 参考スコア(独自算出の注目度): 39.31370830038554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning the underlying casual structure, represented by Directed Acyclic
Graphs (DAGs), of concerned events from fully-observational data is a crucial
part of causal reasoning, but it is challenging due to the combinatorial and
large search space. A recent flurry of developments recast this combinatorial
problem into a continuous optimization problem by leveraging an algebraic
equality characterization of acyclicity. However, these methods suffer from the
fixed-threshold step after optimization, which is not a flexible and systematic
way to rule out the cycle-inducing edges or false discoveries edges with small
values caused by numerical precision. In this paper, we develop a data-driven
DAG structure learning method without the predefined threshold, called adaptive
NOTEARS [30], achieved by applying adaptive penalty levels to each parameters
in the regularization term. We show that adaptive NOTEARS enjoys the oracle
properties under some specific conditions. Furthermore, simulation experimental
results validate the effectiveness of our method, without setting any gap of
edges weights around zero.
- Abstract(参考訳): 完全観測データから関連する事象について、DAG(Directed Acyclic Graphs)で表される基礎となるカジュアル構造を学習することは因果推論の重要な部分であるが、組合せ空間と大規模な探索空間のために困難である。
近年の進歩は、この組合せ問題を非巡回性の代数的等式的特徴を利用して連続最適化問題に再考している。
しかし、これらの手法は最適化後の固定閾値ステップに悩まされ、これは数値精度によって小さな値でサイクル誘導エッジや偽発見エッジを除外する柔軟で体系的な方法ではない。
本稿では,正規化項の各パラメータに適応的なペナルティレベルを適用して達成した適応NOTEARS[30]というしきい値のないデータ駆動型DAG構造学習手法を提案する。
適応NOTEARSは特定の条件下でのオラクル特性を享受することを示す。
さらに, シミュレーション実験により, エッジ重みのギャップをゼロに設定することなく, 提案手法の有効性を検証した。
関連論文リスト
- CoLiDE: Concomitant Linear DAG Estimation [12.415463205960156]
観測データから線形方程式への非巡回グラフ構造学習の問題に対処する。
本稿では,空間認識学習DAGのための新しい凸スコア関数を提案する。
論文 参考訳(メタデータ) (2023-10-04T15:32:27Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Causal Structural Learning from Time Series: A Convex Optimization
Approach [12.4517307615083]
構造学習は、観測データから有向非巡回グラフ(DAG)を学習することを目的としている。
最近のDAG学習は、非常に非適応的な構造学習問題である。
近年開発されたモノトーン変分法(VI)を用いた因果学習のためのデータアプローチを提案する。
論文 参考訳(メタデータ) (2023-01-26T16:39:58Z) - Score-based Causal Representation Learning with Interventions [54.735484409244386]
本稿では,潜在因果変数を間接的に観察する際の因果表現学習問題について検討する。
目的は、 (i) 未知の線形変換(スケーリングまで)を回復し、 (ii) 潜在変数の下の有向非巡回グラフ(DAG)を決定することである。
論文 参考訳(メタデータ) (2023-01-19T18:39:48Z) - A Priori Denoising Strategies for Sparse Identification of Nonlinear
Dynamical Systems: A Comparative Study [68.8204255655161]
本研究では, 局所的およびグローバルな平滑化手法の性能と, 状態測定値の偏差について検討・比較する。
一般に,測度データセット全体を用いたグローバルな手法は,局所点の周辺に隣接するデータサブセットを用いる局所的手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-01-29T23:31:25Z) - Efficient Neural Causal Discovery without Acyclicity Constraints [30.08586535981525]
本研究では,有向非巡回因果グラフの効率的な構造学習法であるENCOを提案する。
実験の結果,ENCOは数百ノードのグラフを効率よく回収できることがわかった。
論文 参考訳(メタデータ) (2021-07-22T07:01:41Z) - Efficient Semi-Implicit Variational Inference [65.07058307271329]
効率的でスケーラブルな半単純外挿 (SIVI) を提案する。
本手法はSIVIの証拠を低勾配値の厳密な推測にマッピングする。
論文 参考訳(メタデータ) (2021-01-15T11:39:09Z) - On the Convergence of Continuous Constrained Optimization for Structure
Learning [30.279796192573805]
本稿では, 線形, 非線形, 共起ケースにおける構造学習における拡張ラグランジアン法 (ALM) と二次ペナルティ法 (QPM) の収束性を示す。
さらに、軽度条件下で、DAG溶液へのQPMの収束保証を確立する。
論文 参考訳(メタデータ) (2020-11-23T00:29:37Z) - CASTLE: Regularization via Auxiliary Causal Graph Discovery [89.74800176981842]
因果構造学習(CASTLE)の正規化を導入し,変数間の因果関係を共同学習することでニューラルネットワークの正規化を提案する。
CASTLEは因果的隣り合いを持つ因果的DAGの特徴のみを効率的に再構成する一方、再構成ベース正規化器は全ての入力特徴を過度に再構成する。
論文 参考訳(メタデータ) (2020-09-28T09:49:38Z) - The Strength of Nesterov's Extrapolation in the Individual Convergence
of Nonsmooth Optimization [0.0]
ネステロフの外挿は、非滑らかな問題に対して勾配降下法の個人収束を最適にする強さを持つことを証明している。
提案手法は,設定の非滑らかな損失を伴って正規化学習タスクを解くためのアルゴリズムの拡張である。
本手法は,大規模な1-正規化ヒンジロス学習問題の解法として有効である。
論文 参考訳(メタデータ) (2020-06-08T03:35:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。