論文の概要: Beyond Forecasting: Compositional Time Series Reasoning for End-to-End Task Execution
- arxiv url: http://arxiv.org/abs/2410.04047v1
- Date: Tue, 8 Oct 2024 16:28:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-02 14:30:41.719612
- Title: Beyond Forecasting: Compositional Time Series Reasoning for End-to-End Task Execution
- Title(参考訳): 予測を超えて: エンドツーエンドタスク実行のための合成時系列推論
- Authors: Wen Ye, Yizhou Zhang, Wei Yang, Lumingyuan Tang, Defu Cao, Jie Cai, Yan Liu,
- Abstract要約: 時系列データから複雑な多段階推論タスクを処理する新しいタスクであるコンポジション時系列推論を導入する。
具体的には、時系列データに構造的および構成的推論能力を必要とする様々な質問事例に焦点を当てる。
我々は,大規模言語モデル(LLM)を用いて複雑なタスクをプログラムのステップに分解するプログラム支援手法であるTS-Reasonerを開発した。
- 参考スコア(独自算出の注目度): 19.64976935450366
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: In recent decades, there has been substantial advances in time series models and benchmarks across various individual tasks, such as time series forecasting, classification, and anomaly detection. Meanwhile, compositional reasoning in time series prevalent in real-world applications (e.g., decision-making and compositional question answering) is in great demand. Unlike simple tasks that primarily focus on predictive accuracy, compositional reasoning emphasizes the synthesis of diverse information from both time series data and various domain knowledge, making it distinct and extremely more challenging. In this paper, we introduce Compositional Time Series Reasoning, a new task of handling intricate multistep reasoning tasks from time series data. Specifically, this new task focuses on various question instances requiring structural and compositional reasoning abilities on time series data, such as decision-making and compositional question answering. As an initial attempt to tackle this novel task, we developed TS-Reasoner, a program-aided approach that utilizes large language model (LLM) to decompose a complex task into steps of programs that leverage existing time series models and numerical subroutines. Unlike existing reasoning work which only calls off-the-shelf modules, TS-Reasoner allows for the creation of custom modules and provides greater flexibility to incorporate domain knowledge as well as user-specified constraints. We demonstrate the effectiveness of our method through a comprehensive set of experiments. These promising results indicate potential opportunities in the new task of time series reasoning and highlight the need for further research.
- Abstract(参考訳): 近年、時系列予測、分類、異常検出など、時系列モデルやベンチマークが様々なタスクにわたって大幅に進歩している。
一方、実世界の応用(例えば、意思決定や構成的質問応答)で広く使われている時系列における構成的推論は、非常に要求されている。
予測精度に主眼を置いている単純なタスクとは異なり、構成的推論は時系列データと様々なドメイン知識の両方から多様な情報を合成することを強調する。
本稿では,時系列データから複雑な多段階推論タスクを処理するための新しいタスクであるコンポジション時系列推論を紹介する。
具体的には、時系列データに構造的および構成的推論能力を必要とする様々な質問事例、例えば意思決定や構成的質問応答に焦点を当てる。
この課題に最初に取り組んでいたTS-Reasonerは、大規模言語モデル(LLM)を利用して、複雑なタスクを既存の時系列モデルと数値サブルーチンを利用するプログラムのステップに分解するプログラム支援手法である。
既製のモジュールのみを呼び出す既存の推論作業とは異なり、TS-Reasonerはカスタムモジュールの作成を可能にし、ドメイン知識とユーザ指定の制約を組み込むための柔軟性を提供する。
本手法の有効性を総合的な実験によって実証する。
これらの有望な結果は、時系列推論の新しいタスクの可能性を示し、さらなる研究の必要性を強調している。
関連論文リスト
- Inference-Time Computations for LLM Reasoning and Planning: A Benchmark and Insights [49.42133807824413]
本稿では,大規模言語モデル(LLM)の複雑な課題解決における推論と計画能力について検討する。
近年の推論時間技術の発展は,LLM推論を追加訓練なしで向上させる可能性を示している。
OpenAIのo1モデルは、マルチステップ推論と検証の新たな使用を通じて、有望なパフォーマンスを示している。
論文 参考訳(メタデータ) (2025-02-18T04:11:29Z) - Context is Key: A Benchmark for Forecasting with Essential Textual Information [87.3175915185287]
コンテキスト is Key" (CiK) は、数値データを多種多様なテキストコンテキストと組み合わせた予測ベンチマークである。
我々は,統計モデル,時系列基礎モデル,LLMに基づく予測モデルなど,さまざまなアプローチを評価する。
提案手法は,提案するベンチマークにおいて,他の試験手法よりも優れる簡易かつ効果的なLCMプロンプト法である。
論文 参考訳(メタデータ) (2024-10-24T17:56:08Z) - Unleash The Power of Pre-Trained Language Models for Irregularly Sampled Time Series [22.87452807636833]
本研究は, ISTS 解析における PLM の可能性を探るものである。
本稿では、時間認識と変数認識のPLMを統合した統合PLMベースのフレームワークISTS-PLMについて述べる。
論文 参考訳(メタデータ) (2024-08-12T14:22:14Z) - TemPrompt: Multi-Task Prompt Learning for Temporal Relation Extraction in RAG-based Crowdsourcing Systems [21.312052922118585]
時間的関係抽出(TRE)は、出来事や行動の進化を把握し、関連するタスクのワークフローを形成することを目的としている。
本稿では,TRE(TemPrompt)のためのマルチタスク・プロンプト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-06-21T01:52:37Z) - How Many Pretraining Tasks Are Needed for In-Context Learning of Linear Regression? [92.90857135952231]
様々なタスクで事前訓練されたトランスフォーマーは、顕著なインコンテキスト学習(ICL)能力を示す。
線形回帰のための線形パラメータ化単一層線形アテンションモデルの事前学習を行う。
論文 参考訳(メタデータ) (2023-10-12T15:01:43Z) - Tree-of-Mixed-Thought: Combining Fast and Slow Thinking for Multi-hop
Visual Reasoning [16.495754104540605]
大規模言語モデル(LLM)は、視覚的推論のような複雑な推論タスクのためのコードライクな計画を生成することができる。
ワンストップ推論 (fast) とツリー・オブ・シント (slow) を統合した階層型計画探索アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-08-18T16:21:40Z) - SatLM: Satisfiability-Aided Language Models Using Declarative Prompting [68.40726892904286]
本研究では,大規模言語モデル (LLM) の推論能力を向上させるために,新しい満足度支援言語モデリング (SatLM) 手法を提案する。
我々はLLMを用いて命令型プログラムではなく宣言型タスク仕様を生成し、既製の自動定理証明器を利用して最終解を導出する。
我々はSATLMを8つの異なるデータセット上で評価し、命令パラダイムにおいてプログラム支援されたLMよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2023-05-16T17:55:51Z) - In Defense of the Unitary Scalarization for Deep Multi-Task Learning [121.76421174107463]
本稿では,多くの特殊マルチタスクを正規化の形式として解釈できることを示唆する理論解析について述べる。
標準正規化と安定化技術と組み合わせると、ユニタリスカラー化は複雑なマルチタスクの性能にマッチし、改善することを示す。
論文 参考訳(メタデータ) (2022-01-11T18:44:17Z) - Robust Learning Through Cross-Task Consistency [92.42534246652062]
クロスタスク整合性を用いた学習向上のための,広く適用可能な完全計算手法を提案する。
クロスタスク一貫性による学習は,より正確な予測と,アウト・オブ・ディストリビューション・インプットの一般化につながることを観察する。
論文 参考訳(メタデータ) (2020-06-07T09:24:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。