論文の概要: High-Dimensional Causal Discovery: Learning from Inverse Covariance via
Independence-based Decomposition
- arxiv url: http://arxiv.org/abs/2211.14221v1
- Date: Fri, 25 Nov 2022 16:32:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 18:58:21.863959
- Title: High-Dimensional Causal Discovery: Learning from Inverse Covariance via
Independence-based Decomposition
- Title(参考訳): 高次元因果発見:独立性に基づく分解による逆共分散から学ぶ
- Authors: Shuyu Dong, Kento Uemura, Akito Fujii, Shuang Chang, Yusuke Koyanagi,
Koji Maruhashi, Mich\`ele Sebag
- Abstract要約: 観測データから因果関係を推定することは、変数の数が大きい場合の基本的かつ非常に複雑な問題である。
最近の進歩は因果構造モデル(SEM)の学習に大きな進歩をもたらしたが、それでもスケーラビリティの課題に直面している。
本稿では,高次元データから因果DAGを効率的に発見することを目的とする。
- 参考スコア(独自算出の注目度): 2.407976495888858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inferring causal relationships from observational data is a fundamental yet
highly complex problem when the number of variables is large. Recent advances
have made much progress in learning causal structure models (SEMs) but still
face challenges in scalability. This paper aims to efficiently discover causal
DAGs from high-dimensional data. We investigate a way of recovering causal DAGs
from inverse covariance estimators of the observational data. The proposed
algorithm, called ICID (inverse covariance estimation and {\it
independence-based} decomposition), searches for a decomposition of the inverse
covariance matrix that preserves its nonzero patterns. This algorithm benefits
from properties of positive definite matrices supported on {\it chordal} graphs
and the preservation of nonzero patterns in their Cholesky decomposition; we
find exact mirroring between the support-preserving property and the
independence-preserving property of our decomposition method, which explains
its effectiveness in identifying causal structures from the data distribution.
We show that the proposed algorithm recovers causal DAGs with a complexity of
$O(d^2)$ in the context of sparse SEMs. The advantageously low complexity is
reflected by good scalability of our algorithm in thorough experiments and
comparisons with state-of-the-art algorithms.
- Abstract(参考訳): 観測データから因果関係を推定することは、変数の数が大きい場合の基本的かつ非常に複雑な問題である。
最近の進歩は因果構造モデル(sems)の学習に大きな進歩をもたらしたが、スケーラビリティの課題に直面している。
本稿では,高次元データから因果DAGを効率的に発見することを目的とする。
観測データの逆共分散推定器から因果DAGを復元する方法を検討する。
提案したアルゴリズムはICID (inverse covariance Estimation and {\it independent-based} decomposition) と呼ばれ、非ゼロパターンを保存する逆共分散行列の分解を探索する。
このアルゴリズムは,Cholesky分解における正定値行列の性質と非ゼロパターンの保存の利点を生かし,データ分布から因果構造を同定する上での有効性を説明する。
提案アルゴリズムは,スパースSEMの文脈において,$O(d^2)$の複雑さで因果DAGを復元することを示した。
この複雑さは、我々のアルゴリズムの優れた拡張性によって、徹底的な実験と最先端のアルゴリズムとの比較によって反映される。
関連論文リスト
- Induced Covariance for Causal Discovery in Linear Sparse Structures [55.2480439325792]
因果モデルでは、観測データから変数間の因果関係を解き明かそうとしている。
本稿では,変数が線形に疎結合な関係を示す設定のための新しい因果探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-02T04:01:38Z) - Recovering Linear Causal Models with Latent Variables via Cholesky
Factorization of Covariance Matrix [21.698480201955213]
観測データの共分散行列のコレスキー分解に基づくDAG構造復元アルゴリズムを提案する。
合成および実世界のデータセットでは、アルゴリズムは従来の手法よりも大幅に高速で、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-01T17:27:49Z) - Recovering Simultaneously Structured Data via Non-Convex Iteratively
Reweighted Least Squares [0.8702432681310401]
線形観測から多種多様低次元構造に固執するデータを復元する新しいアルゴリズムを提案する。
IRLS法は,低/複合状態の計測に好適であることを示す。
論文 参考訳(メタデータ) (2023-06-08T06:35:47Z) - Classification of BCI-EEG based on augmented covariance matrix [0.0]
本稿では,運動画像分類の改善を目的とした自己回帰モデルから抽出した拡張共分散に基づく新しいフレームワークを提案する。
私たちはMOABBフレームワークを使って、いくつかのデータセットといくつかの主題でアプローチを検証します。
論文 参考訳(メタデータ) (2023-02-09T09:04:25Z) - Learning Graphical Factor Models with Riemannian Optimization [70.13748170371889]
本稿では,低ランク構造制約下でのグラフ学習のためのフレキシブルなアルゴリズムフレームワークを提案する。
この問題は楕円分布のペナルティ化された最大推定値として表される。
楕円モデルによく適合する正定行列と定ランクの正半定行列のジオメトリを利用する。
論文 参考訳(メタデータ) (2022-10-21T13:19:45Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Learning Mixtures of Low-Rank Models [89.39877968115833]
低ランクモデルの計算混合を学習する問題について検討する。
ほぼ最適サンプルを用いて未知の行列を復元することが保証されるアルゴリズムを開発する。
さらに,提案アルゴリズムはランダムノイズに対して確実に安定である。
論文 参考訳(メタデータ) (2020-09-23T17:53:48Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。