論文の概要: Augur: Modeling Covariate Causal Associations in Time Series via Large Language Models
- arxiv url: http://arxiv.org/abs/2510.07858v1
- Date: Thu, 09 Oct 2025 06:59:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-10 17:54:14.917068
- Title: Augur: Modeling Covariate Causal Associations in Time Series via Large Language Models
- Title(参考訳): Augur: 大規模言語モデルによる時系列における共変量因果関係のモデル化
- Authors: Zhiqing Cui, Binwu Wang, Qingxiang Liu, Yeqiang Wang, Zhengyang Zhou, Yuxuan Liang, Yang Wang,
- Abstract要約: フルLLM駆動の時系列予測フレームワークであるAugurを紹介した。
強力な教師LLMは、時系列から有向因果グラフをペアの因果検定と共に探索を用いて推論する。
ライトウェイトな学生エージェントがグラフを洗練し、リッチテキストプロンプトとして符号化された高信頼因果関係を微調整する。
- 参考スコア(独自算出の注目度): 43.58901174263385
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLM) have emerged as a promising avenue for time series forecasting, offering the potential to integrate multimodal data. However, existing LLM-based approaches face notable limitations-such as marginalized role in model architectures, reliance on coarse statistical text prompts, and lack of interpretability. In this work, we introduce Augur, a fully LLM driven time series forecasting framework that exploits LLM causal reasoning to discover and use directed causal associations among covariates. Augur uses a two stage teacher student architecture where a powerful teacher LLM infers a directed causal graph from time series using heuristic search together with pairwise causality testing. A lightweight student agent then refines the graph and fine tune on high confidence causal associations that are encoded as rich textual prompts to perform forecasting. This design improves predictive accuracy while yielding transparent, traceable reasoning about variable interactions. Extensive experiments on real-world datasets with 25 baselines demonstrate that Augur achieves competitive performance and robust zero-shot generalization.
- Abstract(参考訳): 大規模言語モデル(LLM)は、時系列予測のための有望な道として現れ、マルチモーダルデータを統合する可能性を提供している。
しかし、既存のLCMベースのアプローチは、モデルアーキテクチャにおける余分な役割、粗い統計テキストプロンプトへの依存、解釈可能性の欠如など、顕著な制限に直面している。
本研究では、LLM因果推論を利用して、共変量間の有向因果関係を発見し、利用するフルLLM因果関係予測フレームワークであるAugurを紹介する。
Augur は2段階の教員学生アーキテクチャを用いており、強力な教師 LLM は時系列からヒューリスティックサーチとペアの因果性テストを用いて有向因果グラフを推論する。
軽量な学生エージェントがグラフを洗練し、リッチテキストプロンプトとして符号化された信頼性の高い因果関係を微調整して予測を行う。
この設計は、可変相互作用に関する透明でトレーサブルな推論を行いながら予測精度を向上させる。
25のベースラインを持つ実世界のデータセットに対する大規模な実験は、Augurが競争性能と堅牢なゼロショットの一般化を達成することを実証している。
関連論文リスト
- GRIL: Knowledge Graph Retrieval-Integrated Learning with Large Language Models [59.72897499248909]
本稿では,Large Language Models (LLM) を用いたエンドツーエンド学習のための新しいグラフ検索手法を提案する。
抽出したサブグラフでは, 構造的知識と意味的特徴をそれぞれ軟式トークンと言語化グラフで符号化し, LLMに注入する。
提案手法は、複雑な推論タスクに対する結合グラフ-LLM最適化の強みを検証し、最先端の性能を一貫して達成する。
論文 参考訳(メタデータ) (2025-09-20T02:38:00Z) - Semantic-Enhanced Time-Series Forecasting via Large Language Models [20.383296465541758]
時系列予測は、金融、エネルギー、気象学、IoTアプリケーションにおいて重要な役割を果たす。
近年,大規模言語モデル(LLM)の一般化機能を活用して時系列予測に適応し,有望な性能を実現している。
本稿では,時系列の固有周期性と異常特性を探索し,意味空間に埋め込むセマンティック拡張LDM(SE-LLM)を提案する。
論文 参考訳(メタデータ) (2025-08-11T07:19:21Z) - Explainable Multi-modal Time Series Prediction with LLM-in-the-Loop [63.34626300024294]
TimeXLはプロトタイプベースの時系列エンコーダを統合するマルチモーダル予測フレームワークである。
より正確な予測と解釈可能な説明を生成する。
4つの実世界のデータセットに対する実証的な評価は、TimeXLがAUCで最大8.9%の改善を達成していることを示している。
論文 参考訳(メタデータ) (2025-03-02T20:40:53Z) - A Comprehensive Evaluation of Large Language Models on Temporal Event Forecasting [45.0261082985087]
時間的事象予測のための大規模言語モデル(LLM)を総合的に評価する。
テキストによる微調整 LLM は性能を著しく向上させることができる。
しかし、LLMでは人気バイアスやロングテール問題などの問題が続いている。
論文 参考訳(メタデータ) (2024-07-16T11:58:54Z) - CALF: Aligning LLMs for Time Series Forecasting via Cross-modal Fine-Tuning [59.88924847995279]
MTSFのためのクロスモーダルLCMファインチューニング(CALF)フレームワークを提案する。
分散の相違を低減するため,クロスモーダルマッチングモジュールを開発した。
CALFは、長期および短期の予測タスクの最先端のパフォーマンスを確立する。
論文 参考訳(メタデータ) (2024-03-12T04:04:38Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z) - Augmenting Interpretable Models with LLMs during Training [73.40079895413861]
本稿では,効率よく解釈可能なモデルを構築するための拡張解釈モデル (Aug-imodels) を提案する。
Aug-imodel は、フィッティング時に LLM を使用するが、推論中に使用せず、完全な透明性を実現する。
自然言語処理におけるAug-imodelのインスタンス化について検討する: (i) Aug-GAM, (ii) Aug-Tree, (ii) LLM機能拡張による決定木の拡大。
論文 参考訳(メタデータ) (2022-09-23T18:36:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。