論文の概要: Causal Structural Learning from Time Series: A Convex Optimization
Approach
- arxiv url: http://arxiv.org/abs/2301.11336v1
- Date: Thu, 26 Jan 2023 16:39:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-30 17:33:43.120480
- Title: Causal Structural Learning from Time Series: A Convex Optimization
Approach
- Title(参考訳): 時系列からの因果構造学習:凸最適化アプローチ
- Authors: Song Wei, Yao Xie
- Abstract要約: 構造学習は、観測データから有向非巡回グラフ(DAG)を学習することを目的としている。
最近のDAG学習は、非常に非適応的な構造学習問題である。
近年開発されたモノトーン変分法(VI)を用いた因果学習のためのデータアプローチを提案する。
- 参考スコア(独自算出の注目度): 12.4517307615083
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Structural learning, which aims to learn directed acyclic graphs (DAGs) from
observational data, is foundational to causal reasoning and scientific
discovery. Recent advancements formulate structural learning into a continuous
optimization problem; however, DAG learning remains a highly non-convex
problem, and there has not been much work on leveraging well-developed convex
optimization techniques for causal structural learning. We fill this gap by
proposing a data-adaptive linear approach for causal structural learning from
time series data, which can be conveniently cast into a convex optimization
problem using a recently developed monotone operator variational inequality
(VI) formulation. Furthermore, we establish non-asymptotic recovery guarantee
of the VI-based approach and show the superior performance of our proposed
method on structure recovery over existing methods via extensive numerical
experiments.
- Abstract(参考訳): 観測データから有向非循環グラフ(dag)を学ぶことを目的とした構造学習は、因果推論と科学的発見の基盤である。
近年、構造学習を連続最適化問題に定式化しているが、DAG学習は依然として非凸問題であり、因果構造学習によく発達した凸最適化技術を活用する研究はあまり行われていない。
このギャップを補うために、時系列データから因果構造学習のためのデータ適応線形アプローチを提案し、最近開発された単調演算子変分不等式(VI)を用いて凸最適化問題に都合よく打ち込むことができる。
さらに,viベースアプローチの非漸近的回復保証を確立し,提案手法が既存の手法よりも優れた性能を示す。
関連論文リスト
- $ψ$DAG: Projected Stochastic Approximation Iteration for DAG Structure Learning [6.612096312467342]
Directed A Graphs (DAGs) の構造を学ぶことは、ノード数に応じてスケールする可能なグラフの巨大な検索空間のため、大きな課題となる。
近年の進歩は、微分可能指数関数性制約を取り入れた連続最適化タスクとしてこの問題を再定義している。
本稿では,SGD(Gradient Descent)に基づく最適化手法と統合した近似手法を用いて,DAGを学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-31T12:13:11Z) - Non-negative Weighted DAG Structure Learning [12.139158398361868]
本研究は,真DAGを夜間観測から学習する問題に対処する。
本稿では, ar を返すことが保証される手法に基づく DAG 回復アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-09-12T09:41:29Z) - Enhancing Robustness of Vision-Language Models through Orthogonality Learning and Self-Regularization [77.62516752323207]
そこで本研究では,事前訓練した重みを効率よく微調整する直交微調整法を導入し,頑健さと一般化の強化を実現した。
自己正規化戦略は、OrthSRと呼ばれるVLMのゼロショット一般化の観点から安定性を維持するためにさらに活用される。
筆者らはCLIPとCoOpを再検討し,少数の画像のクラスフィシエーションシナリオにおけるモデルの改善を効果的に行う。
論文 参考訳(メタデータ) (2024-07-11T10:35:53Z) - Functional Graphical Models: Structure Enables Offline Data-Driven Optimization [111.28605744661638]
構造がサンプル効率のよいデータ駆動最適化を実現する方法を示す。
また、FGM構造自体を推定するデータ駆動最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-08T22:33:14Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - On the Sparse DAG Structure Learning Based on Adaptive Lasso [39.31370830038554]
適応NOTEARS[30]という,事前定義されたしきい値のないデータ駆動型DAG構造学習手法を開発した。
適応型NOTEARSは特定の条件下でのオラクル特性を享受できることを示し, シミュレーションの結果, エッジのギャップをゼロに設定することなく, 提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2022-09-07T05:47:59Z) - DAGs with No Curl: An Efficient DAG Structure Learning Approach [62.885572432958504]
近年のDAG構造学習は連続的な非巡回性制約を伴う制約付き連続最適化問題として定式化されている。
本稿では,DAG空間の重み付き隣接行列を直接モデル化し,学習するための新しい学習フレームワークを提案する。
本手法は, 線形および一般化された構造方程式モデルにおいて, ベースラインDAG構造学習法よりも精度が高いが, 効率がよいことを示す。
論文 参考訳(メタデータ) (2021-06-14T07:11:36Z) - Fractal Structure and Generalization Properties of Stochastic
Optimization Algorithms [71.62575565990502]
最適化アルゴリズムの一般化誤差は、その一般化尺度の根底にあるフラクタル構造の複雑性'にバウンドできることを示す。
さらに、特定の問題(リニア/ロジスティックレグレッション、隠れ/層ニューラルネットワークなど)とアルゴリズムに対して、結果をさらに専門化します。
論文 参考訳(メタデータ) (2021-06-09T08:05:36Z) - Learning Fast Approximations of Sparse Nonlinear Regression [50.00693981886832]
本研究では,Threshold Learned Iterative Shrinkage Algorithming (NLISTA)を導入することでギャップを埋める。
合成データを用いた実験は理論結果と相関し,その手法が最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-10-26T11:31:08Z) - Learning DAGs without imposing acyclicity [0.6526824510982799]
本研究では,非巡回性制約を課すことなく,データから有向非巡回グラフ(DAG)を学習可能であることを示す。
このアプローチは計算効率が良く、古典的な構造学習アルゴリズムのような複雑性の爆発の影響を受けない。
論文 参考訳(メタデータ) (2020-06-04T16:52:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。