論文の概要: Revisiting LLMs as Zero-Shot Time-Series Forecasters: Small Noise Can Break Large Models
- arxiv url: http://arxiv.org/abs/2506.00457v1
- Date: Sat, 31 May 2025 08:24:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-04 21:47:33.084883
- Title: Revisiting LLMs as Zero-Shot Time-Series Forecasters: Small Noise Can Break Large Models
- Title(参考訳): LLMをゼロショットの時系列予測として再考:小さなノイズで大型モデルが壊れる
- Authors: Junwoo Park, Hyuck Lee, Dohyun Lee, Daehoon Gwak, Jaegul Choo,
- Abstract要約: 大規模言語モデル(LLM)は、ドメイン固有のトレーニングなしで、様々なタスクにまたがる顕著なパフォーマンスを示している。
近年の研究では、LLMは予測に固有の効果を欠いていることが示唆されている。
実験の結果,LLMベースのゼロショット予測器はノイズに敏感なため,高い精度を達成するのに苦慮していることがわかった。
- 参考スコア(独自算出の注目度): 32.30528039193554
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have shown remarkable performance across diverse tasks without domain-specific training, fueling interest in their potential for time-series forecasting. While LLMs have shown potential in zero-shot forecasting through prompting alone, recent studies suggest that LLMs lack inherent effectiveness in forecasting. Given these conflicting findings, a rigorous validation is essential for drawing reliable conclusions. In this paper, we evaluate the effectiveness of LLMs as zero-shot forecasters compared to state-of-the-art domain-specific models. Our experiments show that LLM-based zero-shot forecasters often struggle to achieve high accuracy due to their sensitivity to noise, underperforming even simple domain-specific models. We have explored solutions to reduce LLMs' sensitivity to noise in the zero-shot setting, but improving their robustness remains a significant challenge. Our findings suggest that rather than emphasizing zero-shot forecasting, a more promising direction would be to focus on fine-tuning LLMs to better process numerical sequences. Our experimental code is available at https://github.com/junwoopark92/revisiting-LLMs-zeroshot-forecaster.
- Abstract(参考訳): 大規模言語モデル(LLM)は、ドメイン固有のトレーニングなしで様々なタスクで顕著なパフォーマンスを示しており、時系列予測の可能性への関心を喚起している。
LLMは、単独でゼロショット予測を行う可能性を示しているが、最近の研究では、LLMは予測に固有の効果を欠いていることが示唆されている。
これらの矛盾する結果を考えると、信頼できる結論を出すためには厳密な検証が不可欠である。
本稿では,従来のドメイン固有モデルと比較して,LLMをゼロショット予測器としての有効性を評価する。
実験の結果,LLMベースのゼロショット予測器はノイズに敏感なため高い精度を達成するのに苦慮し,単純なドメイン固有モデルでさえも性能が劣ることがわかった。
ゼロショット設定においてLLMのノイズ感度を低下させる手法を探索してきたが、その堅牢性の向上は依然として大きな課題である。
以上の結果から,ゼロショット予測よりも,微調整LDMによる数値列の処理に着目することが期待できる。
実験コードはhttps://github.com/junwoopark92/revisiting-LLMs-zeroshot-forecasterで利用可能です。
関連論文リスト
- Adversarial Vulnerabilities in Large Language Models for Time Series Forecasting [14.579802892916101]
大規模言語モデル(LLM)は、最近、時系列予測において大きな可能性を証明している。
しかし、現実世界のアプリケーションにおける堅牢性と信頼性は、まだ未調査のままである。
LLMに基づく時系列予測のためのターゲット対向攻撃フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-11T04:53:15Z) - From Yes-Men to Truth-Tellers: Addressing Sycophancy in Large Language Models with Pinpoint Tuning [91.79567270986901]
大規模言語モデル(LLM)は、ユーザプロンプトへの順守を、妥当な応答よりも優先する傾向がある。
近年の研究では、教師付き微調整(SFT)を用いて、梅毒問題を軽減することが提案されている。
そこで本研究では,特定の目的のために関心のあるモジュールを調整した新しいピンポイントチューニング(SPT)を提案する。
論文 参考訳(メタデータ) (2024-09-03T07:01:37Z) - Temporal Scaling Law for Large Language Models [57.83580734589091]
本稿では,LLMの試験損失が,トレーニングステップのスケールアップとともにどのように進展するかを考察する,時間スケーリング法の概念を提案する。
テスト損失全体を粗い粒度でモデル化するのとは対照的に、私たちはそれを分解して、各トークン位置のきめ細かいテスト損失に飛び込みます。
動的双曲法則におけるパラメータの時間的パターンを研究することにより、より正確な時間的スケーリング法則を導出する。
論文 参考訳(メタデータ) (2024-04-27T05:49:11Z) - Time Series Forecasting with LLMs: Understanding and Enhancing Model Capabilities [46.02234423159257]
大規模言語モデル(LLM)は多くの分野に適用され、近年急速に発展してきた。
近年の研究では、大規模な言語モデルを、さらなる微調整を行なわずに、アンフェロショット時系列推論として扱っている。
本研究は,LLMが周期性に欠けるデータセットにおいて,明確なパターンや傾向を持つ時系列予測において良好に機能することを示す。
論文 参考訳(メタデータ) (2024-02-16T17:15:28Z) - Are Large Language Models Really Robust to Word-Level Perturbations? [68.60618778027694]
本稿では,事前学習した報酬モデルを診断ツールとして活用する,新たな合理的評価手法を提案する。
より長い会話は、質問を理解する能力の観点から言語モデルの包括的把握を示す。
この結果から,LLMは日常言語でよく使われる単語レベルの摂動に対する脆弱性をしばしば示している。
論文 参考訳(メタデータ) (2023-09-20T09:23:46Z) - Certified Robustness for Large Language Models with Self-Denoising [42.916661225753145]
本稿では,大言語モデル (LLM) を用いて, 劣化した入力を自己認識的に認知する手法を提案する。
本手法は,証明された堅牢性と実証的堅牢性の両方の下で,既存の認証方法よりも優れる。
論文 参考訳(メタデータ) (2023-07-14T05:40:24Z) - On Learning to Summarize with Large Language Models as References [101.79795027550959]
大型言語モデル (LLM) は、一般的な要約データセットにおける元の参照要約よりも人間のアノテーションに好まれる。
より小さなテキスト要約モデルに対するLLM-as-reference学習設定について検討し,その性能が大幅に向上するかどうかを検討する。
論文 参考訳(メタデータ) (2023-05-23T16:56:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。