論文の概要: LSTPrompt: Large Language Models as Zero-Shot Time Series Forecasters by
Long-Short-Term Prompting
- arxiv url: http://arxiv.org/abs/2402.16132v1
- Date: Sun, 25 Feb 2024 16:14:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 15:12:42.200025
- Title: LSTPrompt: Large Language Models as Zero-Shot Time Series Forecasters by
Long-Short-Term Prompting
- Title(参考訳): lstprompt: 長期プロンプトによるゼロショット時系列予測のための大規模言語モデル
- Authors: Haoxin Liu, Zhiyuan Zhao, Jindong Wang, Harshavardhan Kamarthi, B.
Aditya Prakash
- Abstract要約: 時系列予測(TSF)は、現実世界のシナリオにおいて幅広い応用を見出す。
既存のプロンプトメソッドは、言語としてのTSFを過度に単純化する。
本稿では,LST Promptを提案する。
- 参考スコア(独自算出の注目度): 33.160332708906
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time-series forecasting (TSF) finds broad applications in real-world
scenarios. Prompting off-the-shelf Large Language Models (LLMs) demonstrates
strong zero-shot TSF capabilities while preserving computational efficiency.
However, existing prompting methods oversimplify TSF as language next-token
predictions, overlooking its dynamic nature and lack of integration with
state-of-the-art prompt strategies such as Chain-of-Thought. Thus, we propose
LSTPrompt, a novel approach for prompting LLMs in zero-shot TSF tasks.
LSTPrompt decomposes TSF into short-term and long-term forecasting sub-tasks,
tailoring prompts to each. LSTPrompt guides LLMs to regularly reassess
forecasting mechanisms to enhance adaptability. Extensive evaluations
demonstrate consistently better performance of LSTPrompt than existing
prompting methods, and competitive results compared to foundation TSF models.
- Abstract(参考訳): 時系列予測(tsf)は現実世界のシナリオに広く応用されている。
LLM(Prompting off-the-shelf Large Language Models)は、計算効率を保ちながら強力なゼロショットTSF機能を示す。
しかし、既存のプロンプトメソッドは、動的性質とチェーン・オブ・マインドのような最先端のプロンプト戦略との統合の欠如を見越して、言語次の予測としてtsfを単純化している。
そこで本稿では,ゼロショットTSFタスクにおけるLLMの促進手法であるLSTPromptを提案する。
LSTPromptはTSFを短期および長期の予測サブタスクに分解し、それぞれのプロンプトを調整する。
LSTPromptはLSMを誘導し、適応性を高めるために予測メカニズムを定期的に再評価する。
広範囲な評価は,既存のプロンプト法よりもLSTPromptの性能が一貫して向上し,基礎的TSFモデルと比較して競争性が向上した。
関連論文リスト
- Prefix Text as a Yarn: Eliciting Non-English Alignment in Foundation Language Model [50.339632513018934]
教師付き微調整(SFT)は、基礎大言語モデル(LLM)の出力を特定の嗜好に合わせるための単純なアプローチである。
我々はこの仮説を言語間タスクの範囲内で批判的に検証する。
タスク関連トークンを最小化するPreTTYという新しいトレーニングフリーアライメント手法を提案する。
論文 参考訳(メタデータ) (2024-04-25T17:19:36Z) - Adapting LLMs for Efficient Context Processing through Soft Prompt Compression [1.1550486371582305]
本稿では,大規模言語モデルを合理化された文脈処理のために戦略的に調整する,革新的なフレームワークを提案する。
我々の手法はSoftPromptCompと呼ばれ、動的に生成されたソフトプロンプトで自然言語をアマルガメイトし、簡潔でセマンティックに頑健な文脈の描写をフォージする。
我々は,我々のフレームワークが計算オーバーヘッドを著しく減らし,LLMの有効性を様々なベンチマークで向上させることを実証した。
論文 参考訳(メタデータ) (2024-04-07T15:44:20Z) - Taming Pre-trained LLMs for Generalised Time Series Forecasting via
Cross-modal Knowledge Distillation [62.46869075841118]
我々はLLaTAと呼ばれる新しい大規模言語モデルと時系列アライメントフレームワークを提案し、時系列予測課題におけるLLMの可能性を完全に解き放つ。
提案手法は, クロスモーダルな知識蒸留に基づいて, 入力に依存しない静的知識と, 事前学習LLMにおける入力依存動的知識の両方を利用する。
論文 参考訳(メタデータ) (2024-03-12T04:04:38Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language
Models [72.77653698874678]
本稿では,大規模言語モデル(LLM)を自動回帰時系列予測器として活用するためにAutoTimesを提案する。
提案手法は, LLM, 追加テキスト, 時系列を命令として利用することにより, 顕著な手法の一般化を実現し, 性能の向上を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z) - Proto-lm: A Prototypical Network-Based Framework for Built-in
Interpretability in Large Language Models [27.841725567976315]
大規模言語モデル(LLM)は自然言語処理(NLP)の分野を著しく進歩させてきたが、その解釈可能性の欠如が大きな関心事となっている。
本稿では,LLMが即座に解釈可能な埋め込みを学習できるネットワークベースのホワイトボックスフレームワークであるproto-lmを紹介する。
提案手法の適用性と解釈性は,幅広いNLPタスクの実験を通じて実証され,性能を犠牲にすることなく解釈可能なモデルを作成する新たな可能性を示す。
論文 参考訳(メタデータ) (2023-11-03T05:55:32Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - Large Language Models as General Pattern Machines [64.75501424160748]
我々は,事前訓練された大規模言語モデル (LLM) が,複雑なトークンシーケンスを自動回帰的に完了することを示す。
驚いたことに、語彙からランダムにサンプリングされたトークンを用いてシーケンスが表現された場合でも、パターン完了の習熟度を部分的に保持することができる。
本研究では,ロボット工学における問題に対して,これらのゼロショット機能がどのように適用されるかを検討する。
論文 参考訳(メタデータ) (2023-07-10T17:32:13Z) - RLPrompt: Optimizing Discrete Text Prompts With Reinforcement Learning [84.75064077323098]
本稿では、強化学習(RL)を用いた離散的高速最適化手法RLPromptを提案する。
RLPromptは、マスク付きジベリッシュ(例:grammaBERT)や左から右へのモデル(例:GPT)など、様々な種類のLMに柔軟に適用可能である。
少数ショット分類と教師なしテキストスタイル転送の実験は、既存のファインタニングやプロンプト手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-05-25T07:50:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。