論文の概要: Scalable Time-Series Causal Discovery with Approximate Causal Ordering
- arxiv url: http://arxiv.org/abs/2409.05500v3
- Date: Thu, 21 Aug 2025 14:56:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:45.906112
- Title: Scalable Time-Series Causal Discovery with Approximate Causal Ordering
- Title(参考訳): 近似因果順序付けによるスケーラブルな時系列因果探索
- Authors: Ziyang Jiao, Ce Guo, Wayne Luk,
- Abstract要約: 時系列データにおける因果発見は、重要な計算上の課題を示す。
VarLiNGAM法は反復探索に依存し、各ステップの後に統計的依存関係を再計算する。
提案アルゴリズムは,標準実装よりも7-13倍の高速化を実現し,GPUアクセラレーション版より4.5倍の高速化を実現している。
- 参考スコア(独自算出の注目度): 5.430532390358285
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Causal discovery in time-series data presents a significant computational challenge. Standard algorithms are often prohibitively expensive for datasets with many variables or samples. This study introduces and validates a heuristic approximation of the VarLiNGAM algorithm to address this scalability problem. The standard VarLiNGAM method relies on an iterative search, recalculating statistical dependencies after each step. Our heuristic modifies this procedure by omitting the iterative refinement. This change permits a one-time precomputation of all necessary statistical values. The algorithmic modification reduces the time complexity from $O(m^3n)$ to $O(m^2n + m^3)$ while keeping the space complexity at $O(m^2)$, where $m$ is the number of variables and $n$ is the number of samples. While an approximation, our approach retains VarLiNGAM's essential structure and empirical reliability. On large-scale financial data with up to 400 variables, our algorithm achieves a 7--13x speedup over the standard implementation and a 4.5x speedup over a GPU-accelerated version. Evaluations across medical imaging, web server monitoring, and finance demonstrate the heuristic's robustness and practical scalability. This work offers a validated balance between computational efficiency and discovery quality, making large-scale causal analysis feasible on personal computers.
- Abstract(参考訳): 時系列データにおける因果発見は、重要な計算上の課題を示す。
標準アルゴリズムは、多くの変数やサンプルを持つデータセットでは、しばしば違法に高価である。
本研究では,この拡張性問題に対処するために,VarLiNGAMアルゴリズムのヒューリスティック近似を導入し,検証する。
標準的なVarLiNGAM法は、各ステップの後に統計的依存関係を再計算する反復探索に依存している。
私たちのヒューリスティックは反復的な洗練を省略してこの手順を変更します。
この変更により、すべての必要な統計値の1回の事前計算が可能になる。
アルゴリズムの修正により、時間複雑性は$O(m^3n)$から$O(m^2n + m^3)$に減少し、空間複雑性は$O(m^2)$に維持される。
近似はあるものの,本手法はVarLiNGAMの本質的構造と実証的信頼性を保っている。
最大400変数の大規模財務データに対して,我々のアルゴリズムは,標準実装よりも7-13倍,GPUアクセラレーションバージョンより4.5倍の高速化を実現している。
医用画像、Webサーバ監視、ファイナンスによる評価は、ヒューリスティックの堅牢性と実用的なスケーラビリティを示している。
この研究は、計算効率と発見品質のバランスを検証し、パーソナルコンピュータ上で大規模な因果解析を可能にする。
関連論文リスト
- Efficient Causal Discovery for Autoregressive Time Series [0.0]
提案アルゴリズムは,既存の手法に比べて計算複雑性を著しく低減し,より大きな問題に対してより効率的かつスケーラブルにする。
我々は合成データセットの性能を厳格に評価し、我々のアルゴリズムが現在の技術を上回るだけでなく、限られたデータ可用性のシナリオでも優れていることを示した。
論文 参考訳(メタデータ) (2025-07-10T16:27:33Z) - EffiCANet: Efficient Time Series Forecasting with Convolutional Attention [12.784289506021265]
EffiCANetは計算効率を維持しながら予測精度を向上させるように設計されている。
EffiCANetは最先端モデルに対するMAEの最大10.02%の削減を実現している。
論文 参考訳(メタデータ) (2024-11-07T12:54:42Z) - A Distribution-Aware Flow-Matching for Generating Unstructured Data for Few-Shot Reinforcement Learning [1.0709300917082865]
組込みプロセッサ上の数ショット強化学習(RL)に適した合成非構造化データを生成するために設計された分散型フローマッチングを提案する。
我々はランダムフォレストを通した特徴重み付けを重要データ面の優先順位付けに適用し,生成した合成データの精度を向上させる。
本手法は,最初期の第1タイムスタンプにおいて,フレームレートを30%向上しながら,最大Q値に基づく安定収束を提供する。
論文 参考訳(メタデータ) (2024-09-21T15:50:59Z) - AcceleratedLiNGAM: Learning Causal DAGs at the speed of GPUs [57.12929098407975]
既存の因果探索法を効率的に並列化することにより,数千次元まで拡張可能であることを示す。
具体的には、DirectLiNGAMの因果順序付けサブプロデューサに着目し、GPUカーネルを実装して高速化する。
これにより、遺伝子介入による大規模遺伝子発現データに対する因果推論にDirectLiNGAMを適用することで、競争結果が得られる。
論文 参考訳(メタデータ) (2024-03-06T15:06:11Z) - Decreasing the Computing Time of Bayesian Optimization using
Generalizable Memory Pruning [56.334116591082896]
本稿では,任意のサロゲートモデルと取得関数で使用可能なメモリプルーニングとバウンダリ最適化のラッパーを示す。
BOを高次元または大規模データセット上で実行することは、この時間の複雑さのために難解になる。
すべてのモデル実装はMIT Supercloudの最先端コンピューティングハードウェア上で実行される。
論文 参考訳(メタデータ) (2023-09-08T14:05:56Z) - Generative Time Series Forecasting with Diffusion, Denoise, and
Disentanglement [51.55157852647306]
時系列予測は多くのアプリケーションにおいて非常に重要な課題である。
実世界の時系列データが短時間に記録されることが一般的であり、これはディープモデルと限られたノイズのある時系列との間に大きなギャップをもたらす。
本稿では,生成モデルを用いた時系列予測問題に対処し,拡散,雑音,ゆがみを備えた双方向変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2023-01-08T12:20:46Z) - Multi-scale Attention Flow for Probabilistic Time Series Forecasting [68.20798558048678]
マルチスケールアテンション正規化フロー(MANF)と呼ばれる非自己回帰型ディープラーニングモデルを提案する。
我々のモデルは累積誤差の影響を回避し、時間の複雑さを増大させない。
本モデルは,多くの多変量データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-05-16T07:53:42Z) - Toeplitz Least Squares Problems, Fast Algorithms and Big Data [1.3535770763481905]
最近の2つのアルゴリズムは、大容量時系列データに自己回帰モデルを適用するためにランダム化された数値線形代数手法を適用している。
本研究では,これら2つの近似アルゴリズムの大規模合成データと実世界のデータの品質について検討・比較する。
両方のアルゴリズムは合成データセットに匹敵する結果を示すが、実世界の時系列データに適用するとLSARアルゴリズムはより堅牢であるように見える。
論文 参考訳(メタデータ) (2021-12-24T08:32:09Z) - PIETS: Parallelised Irregularity Encoders for Forecasting with
Heterogeneous Time-Series [5.911865723926626]
マルチソースデータセットの不均一性と不規則性は時系列解析において重要な課題となる。
本研究では、異種時系列をモデル化するための新しいアーキテクチャ、PIETSを設計する。
PIETSは異種時間データを効果的にモデル化し、予測タスクにおける他の最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-09-30T20:01:19Z) - Deep Cellular Recurrent Network for Efficient Analysis of Time-Series
Data with Spatial Information [52.635997570873194]
本研究では,空間情報を用いた複雑な多次元時系列データを処理するための新しいディープセルリカレントニューラルネットワーク(DCRNN)アーキテクチャを提案する。
提案するアーキテクチャは,文献に比較して,学習可能なパラメータをかなり少なくしつつ,最先端の性能を実現している。
論文 参考訳(メタデータ) (2021-01-12T20:08:18Z) - Convolutional Tensor-Train LSTM for Spatio-temporal Learning [116.24172387469994]
本稿では,ビデオシーケンスの長期相関を効率的に学習できる高次LSTMモデルを提案する。
これは、時間をかけて畳み込み特徴を組み合わせることによって予測を行う、新しいテンソルトレインモジュールによって達成される。
この結果は,幅広いアプリケーションやデータセットにおいて,最先端のパフォーマンス向上を実現している。
論文 参考訳(メタデータ) (2020-02-21T05:00:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。