論文の概要: Embracing the black box: Heading towards foundation models for causal
discovery from time series data
- arxiv url: http://arxiv.org/abs/2402.09305v1
- Date: Wed, 14 Feb 2024 16:49:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-15 14:32:52.693413
- Title: Embracing the black box: Heading towards foundation models for causal
discovery from time series data
- Title(参考訳): ブラックボックスの導入:時系列データからの因果発見のための基礎モデルに向けて
- Authors: Gideon Stein, Maha Shadaydeh, Joachim Denzler
- Abstract要約: 因果事前学習(Causal Pretraining)は、時系列から根底にある因果グラフへの直接マッピングを教師付きで学習することを目的とした方法論である。
我々の経験から,トレーニングとテスト時系列のサンプルがそれらのダイナミクスの大部分を共有していると仮定して,教師付き方法で因果発見が可能であることが示唆された。
因果的に事前学習されたニューラルネットワークを用いた実世界のデータに対する因果発見が限界の範囲内で可能であることを示す。
- 参考スコア(独自算出の注目度): 8.073449277052495
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Causal discovery from time series data encompasses many existing solutions,
including those based on deep learning techniques. However, these methods
typically do not endorse one of the most prevalent paradigms in deep learning:
End-to-end learning. To address this gap, we explore what we call Causal
Pretraining. A methodology that aims to learn a direct mapping from
multivariate time series to the underlying causal graphs in a supervised
manner. Our empirical findings suggest that causal discovery in a supervised
manner is possible, assuming that the training and test time series samples
share most of their dynamics. More importantly, we found evidence that the
performance of Causal Pretraining can increase with data and model size, even
if the additional data do not share the same dynamics. Further, we provide
examples where causal discovery for real-world data with causally pretrained
neural networks is possible within limits. We argue that this hints at the
possibility of a foundation model for causal discovery.
- Abstract(参考訳): 時系列データからの因果発見は、ディープラーニング技術に基づくものを含む、多くの既存のソリューションを含んでいる。
しかし、これらの方法は通常、ディープラーニングにおいて最も一般的なパラダイムの1つ、エンドツーエンドの学習を支持しない。
このギャップに対処するために、私たちはCausal Pretrainingと呼ぶものを調査します。
多変量時系列から根底にある因果グラフへの直接マッピングを教師付きで学習することを目的とした方法論。
実験結果から,トレーニングとテスト時系列のサンプルが,そのダイナミクスのほとんどを共有していると仮定して,教師ありの方法で因果発見が可能であることが示唆された。
さらに重要なことは、仮に追加データが同じダイナミクスを共有していなくても、Causal Pretrainingのパフォーマンスがデータとモデルサイズによって増加するという証拠を見つけました。
さらに,因果的事前学習ニューラルネットワークを用いた実世界のデータの因果的発見が限界内で可能である例を示す。
これは因果発見の基礎モデルの可能性を示すものだと論じている。
関連論文リスト
- StiefelGen: A Simple, Model Agnostic Approach for Time Series Data
Augmentation over Riemannian Manifolds [10.751130375035558]
時系列データ拡張のための3つの一般的なアプローチは、 (i) 物理モデルを構築し、係数空間上で不確実性を付与すること (ii) 観測されたデータセットにノイズを加えること (iii) 堅牢な生成ニューラルネットワークモデルを訓練できる膨大な時系列データセットにアクセスすること。
本稿では,これら3つの制約の全てを,広範囲に同時に取り組もうとする方法論を提案する。
この方法は、時系列信号を置く簡単な方法を提案するため、スティフェル多様体のよく研究された行列微分幾何学に依存する。
論文 参考訳(メタデータ) (2024-02-29T15:52:21Z) - Multi-modal Causal Structure Learning and Root Cause Analysis [67.67578590390907]
根本原因局所化のためのマルチモーダル因果構造学習手法であるMulanを提案する。
ログ選択言語モデルを利用してログ表現学習を行い、ログシーケンスを時系列データに変換する。
また、モダリティの信頼性を評価し、最終因果グラフを共同学習するための新しいキーパフォーマンスインジケータ対応アテンション機構も導入する。
論文 参考訳(メタデータ) (2024-02-04T05:50:38Z) - Sample, estimate, aggregate: A recipe for causal discovery foundation models [28.116832159265964]
我々は、古典因果探索アルゴリズムの出力からより大きな因果グラフを予測することを学ぶ教師付きモデルを訓練する。
我々のアプローチは、古典的手法の出力における典型的なエラーがデータセット間で比較できるという観察によって実現されている。
実データおよび合成データに関する実験では、このモデルが不特定性や分布シフトに直面して高い精度を維持することを示した。
論文 参考訳(メタデータ) (2024-02-02T21:57:58Z) - Discovering Mixtures of Structural Causal Models from Time Series Data [23.18511951330646]
基礎となる因果モデルを推測するために, MCD と呼ばれる一般的な変分推論に基づくフレームワークを提案する。
このアプローチでは、データ可能性のエビデンス-ローバウンドを最大化するエンドツーエンドのトレーニングプロセスを採用しています。
本研究では,本手法が因果発見タスクにおける最先端のベンチマークを上回ることを実証する。
論文 参考訳(メタデータ) (2023-10-10T05:13:10Z) - Deep networks for system identification: a Survey [56.34005280792013]
システム識別は、入力出力データから動的システムの数学的記述を学習する。
同定されたモデルの主な目的は、以前の観測から新しいデータを予測することである。
我々は、フィードフォワード、畳み込み、リカレントネットワークなどの文献で一般的に採用されているアーキテクチャについて論じる。
論文 参考訳(メタデータ) (2023-01-30T12:38:31Z) - Principled Knowledge Extrapolation with GANs [92.62635018136476]
我々は,知識外挿の新たな視点から,対実合成を研究する。
本稿では, 知識外挿問題に対処するために, クローズド形式判別器を用いた対角ゲームが利用可能であることを示す。
提案手法は,多くのシナリオにおいて,エレガントな理論的保証と優れた性能の両方を享受する。
論文 参考訳(メタデータ) (2022-05-21T08:39:42Z) - Neural Additive Vector Autoregression Models for Causal Discovery in
Time Series [1.160208922584163]
本稿では,非線型関係を発見できる因果構造学習へのニューラルアプローチを提案する。
時系列の時間進化から(付加的な)グランガー因果関係を抽出するディープニューラルネットワークを訓練する。
この手法は、因果探索のための様々なベンチマークデータセットに対して最先端の結果を得る。
論文 参考訳(メタデータ) (2020-10-19T12:44:25Z) - Amortized Causal Discovery: Learning to Infer Causal Graphs from
Time-Series Data [63.15776078733762]
本稿では,時系列データから因果関係を推定する新しいフレームワークであるAmortized Causal Discoveryを提案する。
本研究では,本手法が変分モデルとして実装され,因果発見性能が大幅に向上することを示した。
論文 参考訳(メタデータ) (2020-06-18T19:59:12Z) - Learning Causal Models Online [103.87959747047158]
予測モデルは、予測を行うためにデータの急激な相関に依存することができる。
強い一般化を達成するための一つの解決策は、モデルに因果構造を組み込むことである。
本稿では,突発的特徴を継続的に検出・除去するオンラインアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-12T20:49:20Z) - A Multi-Channel Neural Graphical Event Model with Negative Evidence [76.51278722190607]
イベントデータセットは、タイムライン上で不規則に発生するさまざまなタイプのイベントのシーケンスである。
基礎となる強度関数を推定するために,非パラメトリックディープニューラルネットワーク手法を提案する。
論文 参考訳(メタデータ) (2020-02-21T23:10:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。