論文の概要: Multi-Step Time Series Inference Agent for Reasoning and Automated Task Execution
- arxiv url: http://arxiv.org/abs/2410.04047v3
- Date: Wed, 12 Feb 2025 00:23:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-13 13:46:48.032520
- Title: Multi-Step Time Series Inference Agent for Reasoning and Automated Task Execution
- Title(参考訳): 推論と自動タスク実行のためのマルチステップ時系列推論エージェント
- Authors: Wen Ye, Yizhou Zhang, Wei Yang, Defu Cao, Lumingyuan Tang, Jie Cai, Yan Liu,
- Abstract要約: 本稿では,合成推論と時系列解析の精度の両方を必要とする多段階時系列推論という新しいタスクを提案する。
テキスト内学習、自己補正、プログラム支援実行を統合することで、提案手法は正確かつ解釈可能な結果を保証する。
- 参考スコア(独自算出の注目度): 19.64976935450366
- License:
- Abstract: Time series analysis is crucial in real-world applications, yet traditional methods focus on isolated tasks only, and recent studies on time series reasoning remain limited to simple, single-step inference constrained to natural language answer. In this work, we propose a practical novel task: multi-step time series inference that demands both compositional reasoning and computation precision of time series analysis. To address such challenge, we propose a simple but effective program-aided inference agent that leverages LLMs' reasoning ability to decompose complex tasks into structured execution pipelines. By integrating in-context learning, self-correction, and program-aided execution, our proposed approach ensures accurate and interpretable results. To benchmark performance, we introduce a new dataset and a unified evaluation framework with task-specific success criteria. Experiments show that our approach outperforms standalone general purpose LLMs in both basic time series concept understanding as well as multi-step time series inference task, highlighting the importance of hybrid approaches that combine reasoning with computational precision.
- Abstract(参考訳): 時系列解析は実世界のアプリケーションでは不可欠であるが、従来の手法では孤立したタスクのみに重点を置いており、最近の時系列推論の研究は、自然言語応答に制約された単純な単段階推論に限られている。
本研究では,時系列解析の合成推論と計算精度の両方を必要とする多段階時系列推論という,実用的な新しい課題を提案する。
このような課題に対処するために,複雑なタスクを構造化実行パイプラインに分解するLSMの推論能力を活用する,単純かつ効果的なプログラム支援推論エージェントを提案する。
テキスト内学習、自己補正、プログラム支援実行を統合することで、提案手法は正確かつ解釈可能な結果を保証する。
性能をベンチマークするために,タスク固有の成功基準を備えた新しいデータセットと統合評価フレームワークを導入する。
実験により,本手法は基本時系列概念理解と多段階時系列推論タスクの両方においてスタンドアロンの汎用LSMよりも優れており,推論と計算精度を組み合わせたハイブリッドアプローチの重要性が示された。
関連論文リスト
- Inference-Time Computations for LLM Reasoning and Planning: A Benchmark and Insights [49.42133807824413]
本稿では,大規模言語モデル(LLM)の複雑な課題解決における推論と計画能力について検討する。
近年の推論時間技術の発展は,LLM推論を追加訓練なしで向上させる可能性を示している。
OpenAIのo1モデルは、マルチステップ推論と検証の新たな使用を通じて、有望なパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-02-18T04:11:29Z) - Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト is Key" (CiK) は、数値データを多種多様なテキストコンテキストと組み合わせた予測ベンチマークである。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
提案手法は,提案するベンチマークにおいて,他の試験手法よりも優れる簡易かつ効果的なLCMプロンプト法である。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - Unleash The Power of Pre-Trained Language Models for Irregularly Sampled Time Series [22.87452807636833]
本研究は, ISTS 解析における PLM の可能性を探るものである。
本稿では、時間認識と変数認識のPLMを統合した統合PLMベースのフレームワークISTS-PLMについて述べる。
論文 参考訳(メタデータ) (2024-08-12T14:22:14Z) - TemPrompt: Multi-Task Prompt Learning for Temporal Relation Extraction in RAG-based Crowdsourcing Systems [21.312052922118585]
時間的関係抽出(TRE)は、出来事や行動の進化を把握し、関連するタスクのワークフローを形成することを目的としている。
本稿では,TRE(TemPrompt)のためのマルチタスク・プロンプト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-21T01:52:37Z) - How Many Pretraining Tasks Are Needed for In-Context Learning of Linear Regression? [92.90857135952231]
様々なタスクで事前訓練されたトランスフォーマーは、顕著なインコンテキスト学習(ICL)能力を示す。
線形回帰のための線形パラメータ化単一層線形アテンションモデルの事前学習を行う。
論文 参考訳(メタデータ) (2023-10-12T15:01:43Z) - Tree-of-Mixed-Thought: Combining Fast and Slow Thinking for Multi-hop
Visual Reasoning [16.495754104540605]
大規模言語モデル(LLM)は、視覚的推論のような複雑な推論タスクのためのコードライクな計画を生成することができる。
ワンストップ推論 (fast) とツリー・オブ・シント (slow) を統合した階層型計画探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-18T16:21:40Z) - SatLM: Satisfiability-Aided Language Models Using Declarative Prompting [68.40726892904286]
本研究では,大規模言語モデル (LLM) の推論能力を向上させるために,新しい満足度支援言語モデリング (SatLM) 手法を提案する。
我々はLLMを用いて命令型プログラムではなく宣言型タスク仕様を生成し、既製の自動定理証明器を利用して最終解を導出する。
我々はSATLMを8つの異なるデータセット上で評価し、命令パラダイムにおいてプログラム支援されたLMよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-05-16T17:55:51Z) - In Defense of the Unitary Scalarization for Deep Multi-Task Learning [121.76421174107463]
本稿では,多くの特殊マルチタスクを正規化の形式として解釈できることを示唆する理論解析について述べる。
標準正規化と安定化技術と組み合わせると、ユニタリスカラー化は複雑なマルチタスクの性能にマッチし、改善することを示す。
論文 参考訳(メタデータ) (2022-01-11T18:44:17Z) - Robust Learning Through Cross-Task Consistency [92.42534246652062]
クロスタスク整合性を用いた学習向上のための,広く適用可能な完全計算手法を提案する。
クロスタスク一貫性による学習は,より正確な予測と,アウト・オブ・ディストリビューション・インプットの一般化につながることを観察する。
論文 参考訳(メタデータ) (2020-06-07T09:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。