論文の概要: LSTPrompt: Large Language Models as Zero-Shot Time Series Forecasters by
Long-Short-Term Prompting
- arxiv url: http://arxiv.org/abs/2402.16132v1
- Date: Sun, 25 Feb 2024 16:14:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 15:12:42.200025
- Title: LSTPrompt: Large Language Models as Zero-Shot Time Series Forecasters by
Long-Short-Term Prompting
- Title(参考訳): lstprompt: 長期プロンプトによるゼロショット時系列予測のための大規模言語モデル
- Authors: Haoxin Liu, Zhiyuan Zhao, Jindong Wang, Harshavardhan Kamarthi, B.
Aditya Prakash
- Abstract要約: 時系列予測(TSF)は、現実世界のシナリオにおいて幅広い応用を見出す。
既存のプロンプトメソッドは、言語としてのTSFを過度に単純化する。
本稿では,LST Promptを提案する。
- 参考スコア(独自算出の注目度): 33.160332708906
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time-series forecasting (TSF) finds broad applications in real-world
scenarios. Prompting off-the-shelf Large Language Models (LLMs) demonstrates
strong zero-shot TSF capabilities while preserving computational efficiency.
However, existing prompting methods oversimplify TSF as language next-token
predictions, overlooking its dynamic nature and lack of integration with
state-of-the-art prompt strategies such as Chain-of-Thought. Thus, we propose
LSTPrompt, a novel approach for prompting LLMs in zero-shot TSF tasks.
LSTPrompt decomposes TSF into short-term and long-term forecasting sub-tasks,
tailoring prompts to each. LSTPrompt guides LLMs to regularly reassess
forecasting mechanisms to enhance adaptability. Extensive evaluations
demonstrate consistently better performance of LSTPrompt than existing
prompting methods, and competitive results compared to foundation TSF models.
- Abstract(参考訳): 時系列予測(tsf)は現実世界のシナリオに広く応用されている。
LLM(Prompting off-the-shelf Large Language Models)は、計算効率を保ちながら強力なゼロショットTSF機能を示す。
しかし、既存のプロンプトメソッドは、動的性質とチェーン・オブ・マインドのような最先端のプロンプト戦略との統合の欠如を見越して、言語次の予測としてtsfを単純化している。
そこで本稿では,ゼロショットTSFタスクにおけるLLMの促進手法であるLSTPromptを提案する。
LSTPromptはTSFを短期および長期の予測サブタスクに分解し、それぞれのプロンプトを調整する。
LSTPromptはLSMを誘導し、適応性を高めるために予測メカニズムを定期的に再評価する。
広範囲な評価は,既存のプロンプト法よりもLSTPromptの性能が一貫して向上し,基礎的TSFモデルと比較して競争性が向上した。
関連論文リスト
- A Prompt Refinement-based Large Language Model for Metro Passenger Flow Forecasting under Delay Conditions [30.552007081903263]
遅延条件下での地下鉄の乗客フローの短期予測は、緊急対応とサービス復旧に不可欠である。
遅延イベントが稀に発生するため、遅延条件下でのサンプルサイズが制限されることで、従来のモデルでは、遅延の複雑な影響が乗客の流れに与える影響を捉えることが困難になる。
本稿では,LLMを慎重に設計した急進的なエンジニアリングで合成する乗客フロー予測フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-19T13:46:46Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - GANPrompt: Enhancing Robustness in LLM-Based Recommendations with GAN-Enhanced Diversity Prompts [15.920623515602038]
本稿では,GAN(Generative Adversarial Networks)に基づく多次元大規模言語モデルの多様性促進フレームワークであるGANPromptを提案する。
GANPromptはまず、多次元ユーザ行動データを分析して多様なプロンプトを生成することができるジェネレータを訓練する。
これらの多様なプロンプトは、目に見えないプロンプトに直面して性能を向上させるためにLLMを訓練するために使用される。
論文 参考訳(メタデータ) (2024-08-19T03:13:20Z) - Beam Prediction based on Large Language Models [51.45077318268427]
ミリ波(mmWave)通信は次世代無線ネットワークに期待できるが、パス損失は大きい。
長短期記憶(LSTM)のような従来のディープラーニングモデルでは、ビーム追跡精度が向上するが、ロバスト性や一般化が不足している。
本稿では,大規模言語モデル(LLM)を用いて,ビーム予測の堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-08-16T12:40:01Z) - Csi-LLM: A Novel Downlink Channel Prediction Method Aligned with LLM Pre-Training [3.2721332912474668]
大規模言語モデル(LLM)は、複雑な配列に対して強力なパターン認識と推論能力を示す。
可変ステップ履歴列をモデル化するLLMを用いたダウンリンクチャネル予測技術であるCsi-LLMを紹介する。
そこで我々は,Csi-LLMの設計と訓練を自然言語タスクの処理と整合させる。
論文 参考訳(メタデータ) (2024-08-15T11:39:23Z) - xLSTMTime : Long-term Time Series Forecasting With xLSTM [0.0]
本稿では、時系列予測のための拡張LSTM (xLSTM) と呼ばれる最近のアーキテクチャの適応について述べる。
我々は、xLSTMTimeの性能を、複数の実世界のda-tasetにまたがる様々な最先端モデルと比較する。
この結果から,改良されたリカレントアーキテクチャは時系列予測において,トランスフォーマーモデルに代わる競合的な代替手段を提供する可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-14T15:15:00Z) - CALF: Aligning LLMs for Time Series Forecasting via Cross-modal Fine-Tuning [59.88924847995279]
MTSFのためのクロスモーダルLCMファインチューニング(CALF)フレームワークを提案する。
分散の相違を低減するため,クロスモーダルマッチングモジュールを開発した。
CALFは、長期および短期の予測タスクの最先端のパフォーマンスを確立する。
論文 参考訳(メタデータ) (2024-03-12T04:04:38Z) - Time Series Forecasting with LLMs: Understanding and Enhancing Model Capabilities [46.02234423159257]
大規模言語モデル(LLM)は多くの分野に適用され、近年急速に発展してきた。
近年の研究では、大規模な言語モデルを、さらなる微調整を行なわずに、アンフェロショット時系列推論として扱っている。
本研究は,LLMが周期性に欠けるデータセットにおいて,明確なパターンや傾向を持つ時系列予測において良好に機能することを示す。
論文 参考訳(メタデータ) (2024-02-16T17:15:28Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - RLPrompt: Optimizing Discrete Text Prompts With Reinforcement Learning [84.75064077323098]
本稿では、強化学習(RL)を用いた離散的高速最適化手法RLPromptを提案する。
RLPromptは、マスク付きジベリッシュ(例:grammaBERT)や左から右へのモデル(例:GPT)など、様々な種類のLMに柔軟に適用可能である。
少数ショット分類と教師なしテキストスタイル転送の実験は、既存のファインタニングやプロンプト手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-05-25T07:50:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。