論文の概要: Large Causal Models for Temporal Causal Discovery
- arxiv url: http://arxiv.org/abs/2602.18662v1
- Date: Fri, 20 Feb 2026 23:47:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.227359
- Title: Large Causal Models for Temporal Causal Discovery
- Title(参考訳): 時間的因果発見のための大因果モデル
- Authors: Nikolaos Kougioulis, Nikolaos Gkorgkolis, MingXue Wang, Bora Caglayan, Dario Simionato, Andrea Tonon, Ioannis Tsamardinos,
- Abstract要約: 大型因果モデル(LCM)の概念は、時間的因果発見のために特別に設計された事前訓練されたニューラルネットワークのクラスを想定している。
本稿では,多種多様な合成ジェネレータと実時間時系列データセットを組み合わせたLCMの原理的フレームワークを提案する。
実験によると、LCMは高い変数数とより深いアーキテクチャに効果的にスケールし、高い性能を維持している。
- 参考スコア(独自算出の注目度): 3.8258426534664047
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Causal discovery for both cross-sectional and temporal data has traditionally followed a dataset-specific paradigm, where a new model is fitted for each individual dataset. Such an approach limits the potential of multi-dataset pretraining. The concept of large causal models (LCMs) envisions a class of pre-trained neural architectures specifically designed for temporal causal discovery. Prior approaches are constrained to small variable counts, degrade with larger inputs, and rely heavily on synthetic data, limiting generalization. We propose a principled framework for LCMs, combining diverse synthetic generators with realistic time-series datasets, allowing learning at scale. Extensive experiments on synthetic, semi-synthetic and realistic benchmarks show that LCMs scale effectively to higher variable counts and deeper architectures while maintaining strong performance. Trained models achieve competitive or superior accuracy compared to classical and neural baselines, particularly in out-of-distribution settings, while enabling fast, single-pass inference. Results demonstrate LCMs as a promising foundation-model paradigm for temporal causal discovery. Experiments and model weights are available at https://github.com/kougioulis/LCM-paper/.
- Abstract(参考訳): 横断的データと時間的データの両方の因果発見は、伝統的にデータセット固有のパラダイムに従っており、各データセットに新しいモデルが適合している。
このようなアプローチは、マルチデータセット事前トレーニングの可能性を制限する。
大型因果モデル(LCM)の概念は、時間的因果発見のために特別に設計された事前訓練されたニューラルネットワークのクラスを想定している。
従来のアプローチは、小さな変数数に制約され、より大きな入力で分解され、合成データに大きく依存し、一般化を制限する。
本稿では,多種多様な合成ジェネレータと実時間時系列データセットを組み合わせ,大規模学習を可能にするLCMの原理的フレームワークを提案する。
総合的・半合成的・現実的なベンチマーク実験により、LCMは高い変数数とより深いアーキテクチャに効果的にスケールし、高い性能を維持していることが示された。
トレーニングされたモデルは、古典的ベースラインやニューラルベースライン、特にアウト・オブ・ディストリビューション設定と比較して、高速でシングルパスの推論を可能にしながら、競争力や優れた精度を達成する。
その結果、LCMは時間的因果発見のための有望な基礎モデルパラダイムとして実証された。
実験とモデルウェイトはhttps://github.com/kougioulis/LCM-paper/.comで入手できる。
関連論文リスト
- Deep Autoregressive Models as Causal Inference Engines [38.26602521505842]
本稿では、複雑な共同ファウンダーやシーケンシャルアクションを扱える自己回帰的因果推論フレームワークを提案する。
提案手法は,基礎となる因果図からトークンの列へとデータを変換するemシーケンシフィケーションを用いてこれを実現している。
我々は,CIに適応したARモデルは,迷路をナビゲートしたり,チェスのエンドゲームを行ったり,あるキーワードが紙の受容率に与える影響を評価するなど,様々な複雑な応用において効率的かつ効果的であることが実証された。
論文 参考訳(メタデータ) (2024-09-27T09:37:09Z) - Sample, estimate, aggregate: A recipe for causal discovery foundation models [28.116832159265964]
因果発見は、生物学的実験から機械的な洞察を明らかにする可能性がある。
因果グラフを予測するために,大規模合成データに基づいて学習した教師付きモデルを提案する。
我々のアプローチは、発見アルゴリズムの出力の典型的なエラーがデータセット間で比較できるという観察によって実現されている。
論文 参考訳(メタデータ) (2024-02-02T21:57:58Z) - Parsimony or Capability? Decomposition Delivers Both in Long-term Time Series Forecasting [46.63798583414426]
時系列予測(LTSF)は時系列分析において重要なフロンティアである。
本研究は, 分析的および実証的な証拠から, 分解が過剰なモデルインフレーションを包含する鍵であることを実証する。
興味深いことに、時系列データの本質的なダイナミクスに分解を合わせることで、提案モデルは既存のベンチマークより優れている。
論文 参考訳(メタデータ) (2024-01-22T13:15:40Z) - Generative Modeling of Regular and Irregular Time Series Data via Koopman VAEs [50.25683648762602]
モデルの新しい設計に基づく新しい生成フレームワークであるKoopman VAEを紹介する。
クープマン理論に触発され、線形写像を用いて潜在条件事前力学を表現する。
KoVAEは、いくつかの挑戦的な合成および実世界の時系列生成ベンチマークにおいて、最先端のGANおよびVAEメソッドより優れている。
論文 参考訳(メタデータ) (2023-10-04T07:14:43Z) - To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis [50.31589712761807]
大規模言語モデル(LLM)は、事前トレーニング中にトークンに悩まされていることで知られており、Web上の高品質なテキストデータは、LSMのスケーリング制限に近づいている。
本研究では,事前学習データの再学習の結果について検討し,モデルが過度に適合する可能性が示唆された。
第2に, マルチエポック劣化の原因となる要因について検討し, データセットのサイズ, モデルパラメータ, トレーニング目標など, 重要な要因について検討した。
論文 参考訳(メタデータ) (2023-05-22T17:02:15Z) - On the Generalization and Adaption Performance of Causal Models [99.64022680811281]
異なる因果発見は、データ生成プロセスを一連のモジュールに分解するために提案されている。
このようなモジュラニューラル因果モデルの一般化と適応性能について検討する。
我々の分析では、モジュラーニューラル因果モデルが、低データレギュレーションにおけるゼロおよび少数ショットの適応において、他のモデルよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-06-09T17:12:32Z) - Deep Generative model with Hierarchical Latent Factors for Time Series
Anomaly Detection [40.21502451136054]
本研究は、時系列異常検出のための新しい生成モデルであるDGHLを提示する。
トップダウンの畳み込みネットワークは、新しい階層的な潜在空間を時系列ウィンドウにマッピングし、時間ダイナミクスを利用して情報を効率的にエンコードする。
提案手法は,4つのベンチマーク・データセットにおいて,現在の最先端モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-02-15T17:19:44Z) - Generative time series models using Neural ODE in Variational
Autoencoders [0.0]
生成時系列モデリングのための変分オートエンコーダ設定にニューラル正規微分方程式を実装した。
開発と研究を容易にするために、コードに対するオブジェクト指向のアプローチが採られた。
論文 参考訳(メタデータ) (2022-01-12T14:38:11Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。