論文の概要: High-Dimensional Causal Discovery: Learning from Inverse Covariance via
Independence-based Decomposition
- arxiv url: http://arxiv.org/abs/2211.14221v1
- Date: Fri, 25 Nov 2022 16:32:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2022-11-28 18:58:21.863959
- Title: High-Dimensional Causal Discovery: Learning from Inverse Covariance via
Independence-based Decomposition
- Title(参考訳): 高次元因果発見:独立性に基づく分解による逆共分散から学ぶ
- Authors: Shuyu Dong, Kento Uemura, Akito Fujii, Shuang Chang, Yusuke Koyanagi,
Koji Maruhashi, Mich\`ele Sebag
- Abstract要約: 観測データから因果関係を推定することは、変数の数が大きい場合の基本的かつ非常に複雑な問題である。
最近の進歩は因果構造モデル(SEM)の学習に大きな進歩をもたらしたが、それでもスケーラビリティの課題に直面している。
本稿では,高次元データから因果DAGを効率的に発見することを目的とする。
- 参考スコア(独自算出の注目度): 2.407976495888858
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inferring causal relationships from observational data is a fundamental yet
highly complex problem when the number of variables is large. Recent advances
have made much progress in learning causal structure models (SEMs) but still
face challenges in scalability. This paper aims to efficiently discover causal
DAGs from high-dimensional data. We investigate a way of recovering causal DAGs
from inverse covariance estimators of the observational data. The proposed
algorithm, called ICID (inverse covariance estimation and {\it
independence-based} decomposition), searches for a decomposition of the inverse
covariance matrix that preserves its nonzero patterns. This algorithm benefits
from properties of positive definite matrices supported on {\it chordal} graphs
and the preservation of nonzero patterns in their Cholesky decomposition; we
find exact mirroring between the support-preserving property and the
independence-preserving property of our decomposition method, which explains
its effectiveness in identifying causal structures from the data distribution.
We show that the proposed algorithm recovers causal DAGs with a complexity of
$O(d^2)$ in the context of sparse SEMs. The advantageously low complexity is
reflected by good scalability of our algorithm in thorough experiments and
comparisons with state-of-the-art algorithms.
- Abstract(参考訳): 観測データから因果関係を推定することは、変数の数が大きい場合の基本的かつ非常に複雑な問題である。
最近の進歩は因果構造モデル(sems)の学習に大きな進歩をもたらしたが、スケーラビリティの課題に直面している。
本稿では,高次元データから因果DAGを効率的に発見することを目的とする。
観測データの逆共分散推定器から因果DAGを復元する方法を検討する。
提案したアルゴリズムはICID (inverse covariance Estimation and {\it independent-based} decomposition) と呼ばれ、非ゼロパターンを保存する逆共分散行列の分解を探索する。
このアルゴリズムは,Cholesky分解における正定値行列の性質と非ゼロパターンの保存の利点を生かし,データ分布から因果構造を同定する上での有効性を説明する。
提案アルゴリズムは,スパースSEMの文脈において,$O(d^2)$の複雑さで因果DAGを復元することを示した。
この複雑さは、我々のアルゴリズムの優れた拡張性によって、徹底的な実験と最先端のアルゴリズムとの比較によって反映される。
関連論文リスト
- SOLVAR: Fast covariance-based heterogeneity analysis with pose refinement for cryo-EM [1.739627424017212]
核電子顕微鏡(cryo-EM)は、高分子の3次元構造を解くための強力な技術として登場した。
低温EMの鍵となる課題は、分子がコンフォメーション状態の連続体を採用する連続的な不均一性を特徴づけることである。
共分散に基づく手法は、構造的変数をモデル化するための原則的なアプローチを提供する。
論文 参考訳(メタデータ) (2026-02-19T18:28:46Z) - An Elementary Approach to Scheduling in Generative Diffusion Models [55.171367482496755]
生成拡散モデルにおけるノイズスケジューリングと時間離散化の影響を特徴付けるための基礎的手法を開発した。
異なるデータセットと事前訓練されたモデルにわたる実験により、我々のアプローチによって選択された時間離散化戦略が、ベースラインとサーチベースの戦略を一貫して上回ることを示した。
論文 参考訳(メタデータ) (2026-01-20T05:06:26Z) - BUILD with Precision: Bottom-Up Inference of Linear DAGs [35.95692184008531]
観測データから有向非巡回グラフ(DAG)の構造を学習することは、因果発見、統計信号処理、機械学習における中心的な問題である。
実験結果から, アンサンブル精度行列はDAG回復を促進する特異な構造を示すことが明らかとなった。
BUILDは,葉ノードとその親を識別する決定論的ステップワイドアルゴリズムである。次に,入射端を除去して次のステップに進むことで葉を刈り取り,真精度行列からDAGを正確に再構築する。
論文 参考訳(メタデータ) (2025-12-18T03:06:12Z) - Adaptive posterior distributions for uncertainty analysis of covariance matrices in Bayesian inversion problems for multioutput signals [0.0]
非線形多出力モデルのパラメータに対してベイズ推定を行う際の問題に対処する。
興味のある変数は2つのブロックに分割され、推論は既知の解析最適化公式を利用する。
論文 参考訳(メタデータ) (2025-01-02T09:01:09Z) - Induced Covariance for Causal Discovery in Linear Sparse Structures [55.2480439325792]
因果モデルでは、観測データから変数間の因果関係を解き明かそうとしている。
本稿では,変数が線形に疎結合な関係を示す設定のための新しい因果探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-02T04:01:38Z) - Recovering Linear Causal Models with Latent Variables via Cholesky
Factorization of Covariance Matrix [21.698480201955213]
観測データの共分散行列のコレスキー分解に基づくDAG構造復元アルゴリズムを提案する。
合成および実世界のデータセットでは、アルゴリズムは従来の手法よりも大幅に高速で、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-11-01T17:27:49Z) - Recovering Simultaneously Structured Data via Non-Convex Iteratively
Reweighted Least Squares [0.8702432681310401]
線形観測から多種多様低次元構造に固執するデータを復元する新しいアルゴリズムを提案する。
IRLS法は,低/複合状態の計測に好適であることを示す。
論文 参考訳(メタデータ) (2023-06-08T06:35:47Z) - Classification of BCI-EEG based on augmented covariance matrix [0.0]
本稿では,運動画像分類の改善を目的とした自己回帰モデルから抽出した拡張共分散に基づく新しいフレームワークを提案する。
私たちはMOABBフレームワークを使って、いくつかのデータセットといくつかの主題でアプローチを検証します。
論文 参考訳(メタデータ) (2023-02-09T09:04:25Z) - Learning Graphical Factor Models with Riemannian Optimization [70.13748170371889]
本稿では,低ランク構造制約下でのグラフ学習のためのフレキシブルなアルゴリズムフレームワークを提案する。
この問題は楕円分布のペナルティ化された最大推定値として表される。
楕円モデルによく適合する正定行列と定ランクの正半定行列のジオメトリを利用する。
論文 参考訳(メタデータ) (2022-10-21T13:19:45Z) - Benign Overfitting of Constant-Stepsize SGD for Linear Regression [122.70478935214128]
帰納バイアスは 経験的に過剰フィットを防げる中心的存在です
この研究は、この問題を最も基本的な設定として考慮している: 線形回帰に対する定数ステップサイズ SGD。
我々は、(正規化されていない)SGDで得られるアルゴリズム正則化と、通常の最小二乗よりも多くの顕著な違いを反映する。
論文 参考訳(メタデータ) (2021-03-23T17:15:53Z) - Sparse PCA via $l_{2,p}$-Norm Regularization for Unsupervised Feature
Selection [138.97647716793333]
再構成誤差を$l_2,p$ノルム正規化と組み合わせることで,単純かつ効率的な特徴選択手法を提案する。
提案する非教師付きモデルを解くための効率的な最適化アルゴリズムを提案し,アルゴリズムの収束と計算の複雑さを理論的に解析する。
論文 参考訳(メタデータ) (2020-12-29T04:08:38Z) - Learning Mixtures of Low-Rank Models [89.39877968115833]
低ランクモデルの計算混合を学習する問題について検討する。
ほぼ最適サンプルを用いて未知の行列を復元することが保証されるアルゴリズムを開発する。
さらに,提案アルゴリズムはランダムノイズに対して確実に安定である。
論文 参考訳(メタデータ) (2020-09-23T17:53:48Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。