論文の概要: Is More Context Always Better? Examining LLM Reasoning Capability for Time Interval Prediction
- arxiv url: http://arxiv.org/abs/2601.10132v1
- Date: Thu, 15 Jan 2026 07:18:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:19.03233
- Title: Is More Context Always Better? Examining LLM Reasoning Capability for Time Interval Prediction
- Title(参考訳): 状況は常に改善されているか? 時間間隔予測のためのLLM推論能力の検討
- Authors: Yanan Cao, Farnaz Fallahi, Murali Mohana Krishna Dandu, Lalitesh Morishetti, Kai Zhao, Luyi Ma, Sinduja Subramaniam, Jianpeng Xu, Evren Korpeoglu, Kaushiki Nag, Sushant Kumar, Kannan Achan,
- Abstract要約: 大規模言語モデル(LLM)は、異なるドメインをまたいだ推論と予測において印象的な能力を示している。
本稿では,LLMが繰り返しユーザの行動の時間間隔を予測できるかどうかを系統的に検討する。
我々は、統計モデルと機械学習モデルの両方に対してゼロショット設定で最先端のLCMをベンチマークする。
- 参考スコア(独自算出の注目度): 15.45305246863211
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have demonstrated impressive capabilities in reasoning and prediction across different domains. Yet, their ability to infer temporal regularities from structured behavioral data remains underexplored. This paper presents a systematic study investigating whether LLMs can predict time intervals between recurring user actions, such as repeated purchases, and how different levels of contextual information shape their predictive behavior. Using a simple but representative repurchase scenario, we benchmark state-of-the-art LLMs in zero-shot settings against both statistical and machine-learning models. Two key findings emerge. First, while LLMs surpass lightweight statistical baselines, they consistently underperform dedicated machine-learning models, showing their limited ability to capture quantitative temporal structure. Second, although moderate context can improve LLM accuracy, adding further user-level detail degrades performance. These results challenge the assumption that "more context leads to better reasoning". Our study highlights fundamental limitations of today's LLMs in structured temporal inference and offers guidance for designing future context-aware hybrid models that integrate statistical precision with linguistic flexibility.
- Abstract(参考訳): 大規模言語モデル(LLM)は、異なるドメインをまたいだ推論と予測において印象的な能力を示している。
しかし、構造化された行動データから時間的規則性を推測する能力はいまだに未解明である。
本稿では, LLMが繰り返し購入などのユーザ行動の時間間隔を予測できるかどうか, 文脈情報の違いが予測行動にどのように影響するかを, 系統的に検討する。
単純だが代表的な再購入シナリオを用いて、統計モデルと機械学習モデルの両方に対してゼロショット設定で最先端のLLMをベンチマークする。
2つの重要な発見が浮かび上がっている。
第一に、LSMは軽量な統計ベースラインを超越するが、専用機械学習モデルでは一貫して性能が劣り、定量的時間構造を捉える能力は限られていた。
第二に、適度なコンテキストではLCMの精度が向上するが、さらなるユーザレベルの詳細が性能を低下させる。
これらの結果は、"よりコンテキストがより良い推論につながる"という仮定に挑戦する。
本研究は、構造化時間的推論における今日のLLMの基本的限界を強調し、統計的精度と言語的柔軟性を融合した将来の文脈対応ハイブリッドモデルを設計するためのガイダンスを提供する。
関連論文リスト
- LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト is Key" (CiK) は、数値データを多種多様なテキストコンテキストと組み合わせた予測ベンチマークである。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
提案手法は,提案するベンチマークにおいて,他の試験手法よりも優れる簡易かつ効果的なLCMプロンプト法である。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - A Comprehensive Evaluation of Large Language Models on Temporal Event Forecasting [45.0261082985087]
時間的事象予測のための大規模言語モデル(LLM)を総合的に評価する。
テキストによる微調整 LLM は性能を著しく向上させることができる。
しかし、LLMでは人気バイアスやロングテール問題などの問題が続いている。
論文 参考訳(メタデータ) (2024-07-16T11:58:54Z) - Time Series Forecasting with LLMs: Understanding and Enhancing Model Capabilities [46.02234423159257]
大規模言語モデル(LLM)は多くの分野に適用され、近年急速に発展してきた。
近年の研究では、大規模な言語モデルを、さらなる微調整を行なわずに、アンフェロショット時系列推論として扱っている。
本研究は,LLMが周期性に欠けるデータセットにおいて,明確なパターンや傾向を持つ時系列予測において良好に機能することを示す。
論文 参考訳(メタデータ) (2024-02-16T17:15:28Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。