論文の概要: Intervention-Aware Forecasting: Breaking Historical Limits from a System Perspective
- arxiv url: http://arxiv.org/abs/2405.13522v3
- Date: Fri, 16 May 2025 09:34:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:10.972828
- Title: Intervention-Aware Forecasting: Breaking Historical Limits from a System Perspective
- Title(参考訳): インターベンション・アウェア・フォアキャスティング:システムの観点からの歴史的限界を打破する
- Authors: Zhijian Xu, Hao Wang, Qiang Xu,
- Abstract要約: 我々は、外部介入を組み込むように設計されたインターベンション対応時系列予測(IATSF)フレームワークを提案する。
合成シナリオと実世界のシナリオ間で時間同期されたテキスト介入データからなるリークフリーベンチマークを提案する。
FIATSは最先端の手法を超越しており、予測改善は外部介入をモデル化することによるものであることを示す。
- 参考スコア(独自算出の注目度): 13.150057548030558
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Traditional time series forecasting methods predominantly rely on historical data patterns, neglecting external interventions that significantly shape future dynamics. Through control-theoretic analysis, we show that the implicit "self-stimulation" assumption limits the accuracy of these forecasts. To overcome this limitation, we propose an Intervention-Aware Time Series Forecasting (IATSF) framework explicitly designed to incorporate external interventions. We particularly emphasize textual interventions due to their unique capability to represent qualitative or uncertain influences inadequately captured by conventional exogenous variables. We propose a leak-free benchmark composed of temporally synchronized textual intervention data across synthetic and real-world scenarios. To rigorously evaluate IATSF, we develop FIATS, a lightweight forecasting model that integrates textual interventions through Channel-Aware Adaptive Sensitivity Modeling (CASM) and Channel-Aware Parameter Sharing (CAPS) mechanisms, enabling the model to adjust its sensitivity to interventions and historical data in a channel-specific manner. Extensive empirical evaluations confirm that FIATS surpasses state-of-the-art methods, highlighting that forecasting improvements stem explicitly from modeling external interventions rather than increased model complexity alone.
- Abstract(参考訳): 従来の時系列予測手法は、主に過去のデータパターンに依存しており、将来のダイナミクスを著しく形作る外部介入を無視している。
制御理論解析により、暗黙的な「自己刺激」仮定がこれらの予測の精度を制限することを示した。
この制限を克服するために、外部介入を明示的に組み込むように設計されたインターベンション・アウェア・時系列予測(IATSF)フレームワークを提案する。
特に,従来の外因性変数が不適切に捉えた定性的あるいは不確実な影響を表現できるという点で,テキストの介入を特に強調する。
合成シナリオと実世界のシナリオ間で時間同期されたテキスト介入データからなるリークフリーベンチマークを提案する。
IATSFを厳密に評価するために、我々は、チャネル認識適応感性モデリング(CASM)とチャネル認識パラメータ共有(CAPS)機構を通じてテキスト介入を統合する軽量な予測モデルであるFIATSを開発した。
FIATSが最先端の手法を超越していることを確認し、予測の改善は、モデル複雑さのみを増大させるのではなく、外部介入をモデル化することによるものであることを強調した。
関連論文リスト
- TimesBERT: A BERT-Style Foundation Model for Time Series Understanding [72.64824086839631]
GPTスタイルのモデルは時系列予測の基礎モデルとして位置づけられている。
BERTスタイルのアーキテクチャは時系列理解のために完全にアンロックされていない。
時系列の汎用表現を学ぶために TimesBERT を設計する。
私たちのモデルは、さまざまなドメインにまたがる2600億のタイムポイントで事前トレーニングされています。
論文 参考訳(メタデータ) (2025-02-28T17:14:44Z) - TimeCAP: Learning to Contextualize, Augment, and Predict Time Series Events with Large Language Model Agents [52.13094810313054]
TimeCAPは、時系列データのコンテキスト化ツールとしてLarge Language Models(LLM)を創造的に利用する時系列処理フレームワークである。
TimeCAPには2つの独立したLCMエージェントが組み込まれており、1つは時系列のコンテキストをキャプチャするテキスト要約を生成し、もう1つはより情報のある予測を行うためにこのリッチな要約を使用する。
実世界のデータセットによる実験結果から,TimeCAPは時系列イベント予測の最先端手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2025-02-17T04:17:27Z) - Language in the Flow of Time: Time-Series-Paired Texts Weaved into a Unified Temporal Narrative [65.84249211767921]
テキスト・アズ・タイム・シリーズ(英語版) (TaTS) は時系列の補助変数であると考えている。
TaTSは、既存の数値のみの時系列モデルにプラグインすることができ、ペア化されたテキストで時系列データを効率的に処理することができる。
論文 参考訳(メタデータ) (2025-02-13T03:43:27Z) - LAST SToP For Modeling Asynchronous Time Series [19.401463051705377]
Asynchronous Time Series に合わせたLarge Language Models (LLM) のための新しいプロンプト設計を提案する。
我々のアプローチはイベント記述のリッチな自然言語を効果的に活用し、LLMはさまざまなドメインやタスクをまたがる推論において、広範囲にわたる知識の恩恵を受けることができる。
さらに、モデル性能を大幅に向上させる新しいプロンプトチューニング機構であるSoft Promptingを導入し、QLoRAのような既存の微調整方法よりも優れていることを示す。
論文 参考訳(メタデータ) (2025-02-04T01:42:45Z) - Unveiling the Potential of Text in High-Dimensional Time Series Forecasting [12.707274099874384]
本稿では,時系列モデルと大規模言語モデルを統合する新しいフレームワークを提案する。
マルチモーダルモデルにインスパイアされた本手法では, 時系列データとテキストデータを重塔構造で結合する。
テキストを組み込んだ実験により,高次元時系列予測性能が向上することが示された。
論文 参考訳(メタデータ) (2025-01-13T04:10:45Z) - Text2Freq: Learning Series Patterns from Text via Frequency Domain [8.922661807801227]
Text2Freqは、周波数領域を介してテキストと時系列データを統合したモダリティモデルである。
実物価格と合成テキストのペアデータセットによる実験により,Text2Freqが最先端のパフォーマンスを実現することを示す。
論文 参考訳(メタデータ) (2024-11-01T16:11:02Z) - Metadata Matters for Time Series: Informative Forecasting with Transformers [70.38241681764738]
時系列予測のためのMetaTST(Metadata-informed Time Series Transformer)を提案する。
メタデータの非構造化の性質に取り組むため、MetaTSTは、事前に設計されたテンプレートによってそれらを自然言語に形式化する。
Transformerエンコーダは、メタデータ情報によるシーケンス表現を拡張するシリーズトークンとメタデータトークンの通信に使用される。
論文 参考訳(メタデータ) (2024-10-04T11:37:55Z) - Understanding Different Design Choices in Training Large Time Series Models [71.20102277299445]
不均一な時系列データに基づく大規模時系列モデル(LTSMs)のトレーニングには,ユニークな課題が伴う。
本稿では,時系列データに合わせた新しい統計プロンプトである,時系列プロンプトを提案する。
textttLTSM-bundleを導入します。
論文 参考訳(メタデータ) (2024-06-20T07:09:19Z) - LaT-PFN: A Joint Embedding Predictive Architecture for In-context Time-series Forecasting [0.0]
我々は,ゼロショット予測を可能にする強力な埋め込み空間を持つ基本時系列モデルであるLatntTimePFNを紹介する。
我々は、PFNとJEPA(Joint Embedding Predictive Architecture)フレームワークの新たな統合を利用して、潜在空間におけるコンテキスト内学習を行う。
論文 参考訳(メタデータ) (2024-05-16T13:44:56Z) - Chronos: Learning the Language of Time Series [79.38691251254173]
Chronosは事前訓練された確率的時系列モデルのためのフレームワークである。
クロノスモデルでは,様々な領域の時系列データを利用して,未知の予測タスクにおけるゼロショット精度を向上させることができることを示す。
論文 参考訳(メタデータ) (2024-03-12T16:53:54Z) - Unified Training of Universal Time Series Forecasting Transformers [104.56318980466742]
マスク型ユニバーサル時系列予測変換器(モイライ)について述べる。
Moiraiは、新たに導入された大規模オープンタイムシリーズアーカイブ(LOTSA)で訓練されており、9つのドメインで27億以上の観測が行われた。
Moiraiは、フルショットモデルと比較してゼロショットの予測器として、競争力や優れたパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-02-04T20:00:45Z) - TEMPO: Prompt-based Generative Pre-trained Transformer for Time Series Forecasting [24.834846119163885]
本稿では,時系列表現を効果的に学習できる新しいフレームワークTEMPOを提案する。
TEMPOは、様々な領域のデータから現実世界の時間現象を動的にモデル化する機能を拡張する。
論文 参考訳(メタデータ) (2023-10-08T00:02:25Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - Towards Generating Real-World Time Series Data [52.51620668470388]
時系列データ生成のための新しい生成フレームワーク - RTSGANを提案する。
RTSGANは、時系列インスタンスと固定次元潜在ベクトルの間のマッピングを提供するエンコーダデコーダモジュールを学習する。
不足した値の時系列を生成するために、RTSGANに観測埋め込み層と決定・生成デコーダを更に装備する。
論文 参考訳(メタデータ) (2021-11-16T11:31:37Z) - Deep Transformer Models for Time Series Forecasting: The Influenza
Prevalence Case [2.997238772148965]
時系列データは、多くの科学と工学の分野で広く使われている。
本稿では,トランスフォーマーに基づく機械学習モデルを用いた時系列予測の新しい手法を提案する。
提案手法により得られた予測結果は,最先端技術と良好に比較できることを示す。
論文 参考訳(メタデータ) (2020-01-23T00:22:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。