論文の概要: Toward Reasoning-Centric Time-Series Analysis
- arxiv url: http://arxiv.org/abs/2510.13029v1
- Date: Tue, 14 Oct 2025 22:59:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.440754
- Title: Toward Reasoning-Centric Time-Series Analysis
- Title(参考訳): Reasoning-Centric Time-Series Analysis に向けて
- Authors: Xinlei Wang, Mingtian Tan, Jing Qiu, Junhua Zhao, Jinjin Gu,
- Abstract要約: 現実の環境では、効果的な分析は表面的な傾向を超えて、それらを動かす実際の力を明らかにする必要がある。
近年のLarge Language Models (LLMs) は時系列分析を再考する新たな機会を提供する。
本稿では,LLMを用いた時系列を因果構造と説明可能性の優先順位付け作業として再考する。
- 参考スコア(独自算出の注目度): 25.125311368754527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional time series analysis has long relied on pattern recognition, trained on static and well-established benchmarks. However, in real-world settings -- where policies shift, human behavior adapts, and unexpected events unfold -- effective analysis must go beyond surface-level trends to uncover the actual forces driving them. The recent rise of Large Language Models (LLMs) presents new opportunities for rethinking time series analysis by integrating multimodal inputs. However, as the use of LLMs becomes popular, we must remain cautious, asking why we use LLMs and how to exploit them effectively. Most existing LLM-based methods still employ their numerical regression ability and ignore their deeper reasoning potential. This paper argues for rethinking time series with LLMs as a reasoning task that prioritizes causal structure and explainability. This shift brings time series analysis closer to human-aligned understanding, enabling transparent and context-aware insights in complex real-world environments.
- Abstract(参考訳): 従来の時系列分析は、静的で確立されたベンチマークに基づいてトレーニングされたパターン認識に依存してきた。
しかし、政策の転換、人間の行動の適応、予期せぬ出来事が広がる現実の環境では、効果的な分析は表面的な傾向を超えて、それらを動かす実際の力を明らかにする必要がある。
近年のLarge Language Models (LLMs) は,マルチモーダル入力を統合することで時系列解析を再考する新たな機会を提供する。
しかし、LSMが普及するにつれて、なぜLSMを使うのか、どのように効果的に利用するのかを尋ね、慎重でなければならない。
既存のLLMベースの手法の多くは、まだ数値回帰能力を採用しており、より深い推論可能性を無視している。
本稿では,LLMを用いた時系列を因果構造と説明可能性の優先順位付け作業として再考する。
このシフトは、時系列分析を人間に沿った理解に近づけ、複雑な現実世界環境における透明性とコンテキスト認識の洞察を可能にする。
関連論文リスト
- Can Slow-thinking LLMs Reason Over Time? Empirical Studies in Time Series Forecasting [17.73769436497384]
時系列予測(TSF)は、古典的な統計的アプローチから現代のディープラーニングやマルチモーダル言語モデリングまで、基礎的で広く研究されている課題である。
一方、ゆっくり考え始めるLSMは、様々な領域にまたがる印象的な多段階推論能力を示している。
スロー思考のLLMは、時系列予測をサポートするために時間的パターンよりも効果的に推論できるのか?
論文 参考訳(メタデータ) (2025-05-30T12:19:02Z) - Large Language models for Time Series Analysis: Techniques, Applications, and Challenges [10.347387584258222]
大規模言語モデル (LLMs) は、時系列解析において、その横断的な知識の統合と固有の注意機構を活用することによって、変革的なポテンシャルを提供する。
本稿では,LLM駆動型時系列解析の体系的レビューを行う。
技術、潜在的なアプリケーション、オープンな課題の実現に重点を置いています。
論文 参考訳(メタデータ) (2025-05-21T04:45:11Z) - TransientTables: Evaluating LLMs' Reasoning on Temporally Evolving Semi-structured Tables [47.85408648193376]
大規模言語モデル(LLM)は通常、静的データセットでトレーニングされ、効果的な時間的推論を行う能力を制限する。
本稿では,14,000以上のテーブルから3,971の質問を抽出し,複数の期間にわたって1,238のエンティティを対象とするTransIENTTABLESデータセットを提案する。
論文 参考訳(メタデータ) (2025-04-02T16:34:43Z) - LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - Position: Empowering Time Series Reasoning with Multimodal LLMs [49.73647759532127]
マルチモーダル言語モデル (MLLM) は時系列解析においてより強力で柔軟な推論を可能にすると論じる。
我々は、MLLMにおける信頼、解釈可能性、堅牢な推論を優先する戦略を開発することで、この可能性を活用するよう研究者や実践者に呼びかける。
論文 参考訳(メタデータ) (2025-02-03T16:10:48Z) - CALF: Aligning LLMs for Time Series Forecasting via Cross-modal Fine-Tuning [59.88924847995279]
MTSFのためのクロスモーダルLCMファインチューニング(CALF)フレームワークを提案する。
分散の相違を低減するため,クロスモーダルマッチングモジュールを開発した。
CALFは、長期および短期の予測タスクの最先端のパフォーマンスを確立する。
論文 参考訳(メタデータ) (2024-03-12T04:04:38Z) - Empowering Time Series Analysis with Large Language Models: A Survey [24.202539098675953]
本稿では,大規模言語モデルを用いた時系列解析手法の体系的概要について述べる。
具体的には、まず、時系列の文脈で言語モデルを適用する際の課題とモチベーションについて述べる。
次に、既存のメソッドを異なるグループ(ダイレクトクエリ、トークン化、プロンプトデザイン、ファインチューン、モデル統合)に分類し、各グループにおける主要なアイデアを強調します。
論文 参考訳(メタデータ) (2024-02-05T16:46:35Z) - Position: What Can Large Language Models Tell Us about Time Series Analysis [69.70906014827547]
現在の大規模言語モデル(LLM)は時系列解析に革命をもたらす可能性があると我々は主張する。
このような進歩は、時系列のモダリティスイッチングや質問応答など、幅広い可能性を解き放つ可能性がある。
論文 参考訳(メタデータ) (2024-02-05T04:17:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。