論文の概要: Learning Large Causal Structures from Inverse Covariance Matrix via
Sparse Matrix Decomposition
- arxiv url: http://arxiv.org/abs/2211.14221v3
- Date: Mon, 19 Feb 2024 21:05:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 21:57:06.166052
- Title: Learning Large Causal Structures from Inverse Covariance Matrix via
Sparse Matrix Decomposition
- Title(参考訳): スパース行列分解による逆共分散行列からの大規模因果構造学習
- Authors: Shuyu Dong, Kento Uemura, Akito Fujii, Shuang Chang, Yusuke Koyanagi,
Koji Maruhashi, Mich\`ele Sebag
- Abstract要約: 本稿では,逆共分散行列から因果構造を学習することに焦点を当てる。
提案手法は,行列分解モデルの連続的最適化に基づくICIDと呼ばれる。
本研究では,ノイズ分散の知識を前提として,提案した指向性非巡回グラフ(DAG)を効率よく同定することを示す。
- 参考スコア(独自算出の注目度): 2.403264213118039
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning causal structures from observational data is a fundamental problem
facing important computational challenges when the number of variables is
large. In the context of linear structural equation models (SEMs), this paper
focuses on learning causal structures from the inverse covariance matrix. The
proposed method, called ICID for Independence-preserving Decomposition from
Inverse Covariance matrix, is based on continuous optimization of a matrix
decomposition model that preserves the nonzero patterns of the inverse
covariance matrix. Through theoretical and empirical evidences, we show that
ICID efficiently identifies the sought directed acyclic graph (DAG) assuming
the knowledge of noise variances. Moreover, ICID is shown empirically to be
robust under bounded misspecification of noise variances in the case where the
noise variances are non-equal. The proposed method enjoys a low complexity, as
reflected by its time efficiency in the experiments, and also enables a novel
regularization scheme that yields highly accurate solutions on the Simulated
fMRI data (Smith et al., 2011) in comparison with state-of-the-art algorithms.
- Abstract(参考訳): 観測データから因果構造を学ぶことは、変数数が大きい場合に重要な計算課題に直面する根本的な問題である。
本稿では,線形構造方程式モデル(SEM)の文脈において,逆共分散行列から因果構造を学習することに焦点を当てる。
逆共分散行列からの独立保存分解のためのicidと呼ばれるこの手法は、逆共分散行列の非零パターンを保存する行列分解モデルの連続最適化に基づいている。
理論的および実証的な証拠から,雑音分散の知識を仮定して,ICIDが探索対象の非巡回グラフ(DAG)を効率的に同定することを示す。
さらに、ノイズ分散が等しくない場合に、ノイズ分散の有界な不特定性の下で、ICIDが堅牢であることを示す。
提案手法は, 実験における時間効率に反映されるような低複雑性を享受し, シミュレーションされたfMRIデータ(Smith et al., 2011)に対して, 最先端のアルゴリズムと比較して, 高精度な正則化手法を実現する。
関連論文リスト
- Induced Covariance for Causal Discovery in Linear Sparse Structures [55.2480439325792]
因果モデルでは、観測データから変数間の因果関係を解き明かそうとしている。
本稿では,変数が線形に疎結合な関係を示す設定のための新しい因果探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-02T04:01:38Z) - Recovering Linear Causal Models with Latent Variables via Cholesky
Factorization of Covariance Matrix [21.698480201955213]
観測データの共分散行列のコレスキー分解に基づくDAG構造復元アルゴリズムを提案する。
合成および実世界のデータセットでは、アルゴリズムは従来の手法よりも大幅に高速で、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-01T17:27:49Z) - Recovering Simultaneously Structured Data via Non-Convex Iteratively
Reweighted Least Squares [0.8702432681310401]
線形観測から多種多様低次元構造に固執するデータを復元する新しいアルゴリズムを提案する。
IRLS法は,低/複合状態の計測に好適であることを示す。
論文 参考訳(メタデータ) (2023-06-08T06:35:47Z) - Classification of BCI-EEG based on augmented covariance matrix [0.0]
本稿では,運動画像分類の改善を目的とした自己回帰モデルから抽出した拡張共分散に基づく新しいフレームワークを提案する。
私たちはMOABBフレームワークを使って、いくつかのデータセットといくつかの主題でアプローチを検証します。
論文 参考訳(メタデータ) (2023-02-09T09:04:25Z) - Learning Graphical Factor Models with Riemannian Optimization [70.13748170371889]
本稿では,低ランク構造制約下でのグラフ学習のためのフレキシブルなアルゴリズムフレームワークを提案する。
この問題は楕円分布のペナルティ化された最大推定値として表される。
楕円モデルによく適合する正定行列と定ランクの正半定行列のジオメトリを利用する。
論文 参考訳(メタデータ) (2022-10-21T13:19:45Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Learning Mixtures of Low-Rank Models [89.39877968115833]
低ランクモデルの計算混合を学習する問題について検討する。
ほぼ最適サンプルを用いて未知の行列を復元することが保証されるアルゴリズムを開発する。
さらに,提案アルゴリズムはランダムノイズに対して確実に安定である。
論文 参考訳(メタデータ) (2020-09-23T17:53:48Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。