論文の概要: FLAIRR-TS -- Forecasting LLM-Agents with Iterative Refinement and Retrieval for Time Series
- arxiv url: http://arxiv.org/abs/2508.19279v1
- Date: Sun, 24 Aug 2025 00:57:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.341332
- Title: FLAIRR-TS -- Forecasting LLM-Agents with Iterative Refinement and Retrieval for Time Series
- Title(参考訳): FLAIRR-TS -- 繰り返しリファインメントと時系列検索によるLLM-Agentの予測
- Authors: Gunjan Jalori, Preetika Verma, Sercan Ö Arık,
- Abstract要約: 本稿では,エージェントシステムを利用したテスト時間プロンプト最適化フレームワークFLAIRR-TSを紹介する。
Forecaster-Adntgenerates forecasts using a initial prompt, which is refineed by a refiner agent, in-formed by past outputs and retrieved analogs。
ベンチマークデータセットの実験では、静的プロンプトと検索拡張ベースラインよりも精度が向上した。
- 参考スコア(独自算出の注目度): 1.1360832156847103
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series Forecasting with large languagemodels (LLMs) requires bridging numericalpatterns and natural language. Effective fore-casting on LLM often relies on extensive pre-processing and fine-tuning.Recent studiesshow that a frozen LLM can rival specializedforecasters when supplied with a carefully en-gineered natural-language prompt, but craft-ing such a prompt for each task is itself oner-ous and ad-hoc. We introduce FLAIRR-TS, atest-time prompt optimization framework thatutilizes an agentic system: a Forecaster-agentgenerates forecasts using an initial prompt,which is then refined by a refiner agent, in-formed by past outputs and retrieved analogs.This adaptive prompting generalizes across do-mains using creative prompt templates andgenerates high-quality forecasts without inter-mediate code generation.Experiments onbenchmark datasets show improved accuracyover static prompting and retrieval-augmentedbaselines, approaching the performance ofspecialized prompts.FLAIRR-TS providesa practical alternative to tuning, achievingstrong performance via its agentic approach toadaptive prompt refinement and retrieval.
- Abstract(参考訳): 大規模言語モデル(LLM)による時系列予測には,ブリッジング数値パターンと自然言語が必要である。
LLMの効果的なフォアキャスティングは、広範囲の事前処理と微調整に頼っていることが多いが、近年の研究によると、凍結されたLLMは、注意深く精巧な自然言語プロンプトを供給した場合、特別なフォアキャスティングに匹敵する可能性があるが、それぞれのタスクに対してそのようなプロンプトを工芸的に行うことは、それ自体は危険でアドホックである。
本稿では,エージェントシステムを利用したテスト時プロンプト最適化フレームワークであるFLAIRR-TSを紹介した。前処理器が初期プロンプトを用いて予測を洗練し,その後,過去の出力と検索されたアナログによってインフォームされたリファインダエージェントによって洗練される。このアダプティブプロンプトは,クリエイティブプロンプトテンプレートを用いてドメインをまたがって一般化し,中間コード生成なしで高品質な予測を生成させる。ベンチマークデータセットの実験では,静的プロンプトと検索拡張ベースラインの精度の向上が示され,特定のプロンプトのパフォーマンスにアプローチする。FLAIRR-TSは,エージェントのプロンプトを適応的に改善・検索するための実用的な代替手段を提供する。
関連論文リスト
- Can Prompt Difficulty be Online Predicted for Accelerating RL Finetuning of Reasoning Models? [62.579951798437115]
本研究では任意のプロンプトの反復的近似評価について検討する。
Model Predictive Prompt Selection (MoPPS)はベイズにおけるリスク予測フレームワークである。
MoPPSは迅速な困難を確実に予測し、ロールアウトを大幅に削減したトレーニングを加速する。
論文 参考訳(メタデータ) (2025-07-07T03:20:52Z) - Forecasting Time Series with LLMs via Patch-Based Prompting and Decomposition [48.50019311384125]
我々は、LLMが広範囲のトレーニングを伴わずに時系列予測を行うことのできる、シンプルで柔軟なプロンプトベースの戦略を探求する。
我々は,LLMが正確かつ効果的に予測できるPatchInstructを提案する。
論文 参考訳(メタデータ) (2025-06-15T19:42:58Z) - Explainable Multi-modal Time Series Prediction with LLM-in-the-Loop [63.34626300024294]
TimeXLはプロトタイプベースの時系列エンコーダを統合するマルチモーダル予測フレームワークである。
より正確な予測と解釈可能な説明を生成する。
4つの実世界のデータセットに対する実証的な評価は、TimeXLがAUCで最大8.9%の改善を達成していることを示している。
論文 参考訳(メタデータ) (2025-03-02T20:40:53Z) - In-context Demonstration Matters: On Prompt Optimization for Pseudo-Supervision Refinement [71.60563181678323]
大規模言語モデル(LLM)は様々なタスクで大きな成功を収めており、生成品質をさらに向上させるためには微調整が必要である場合もある。
これらの課題に対処する直接的な解決策は、教師なしの下流タスクから高信頼のデータを生成することである。
本稿では,プロンプトと全体的な擬似スーパービジョンを両立させる新しい手法,擬似教師付きデモアライメント・アライメント・アライメント・プロンプト・最適化(PAPO)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-10-04T03:39:28Z) - Test-Time Low Rank Adaptation via Confidence Maximization for Zero-Shot Generalization of Vision-Language Models [4.655740975414312]
本稿では,大規模視覚言語モデル(VLM)のゼロショット一般化のための高速チューニングの代替として,テスト時間低ランク適応(TTL)を提案する。
TTLは、予測信頼度を最大化することにより、変圧器の注意重みを更新するテスト時間効率適応手法を提供する。
論文 参考訳(メタデータ) (2024-07-22T17:59:19Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。