論文の概要: Towards Time Series Reasoning with LLMs
- arxiv url: http://arxiv.org/abs/2409.11376v1
- Date: Tue, 17 Sep 2024 17:23:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-18 15:25:38.494914
- Title: Towards Time Series Reasoning with LLMs
- Title(参考訳): LLMによる時系列推論に向けて
- Authors: Winnie Chow, Lauren Gardiner, Haraldur T. Hallgrímsson, Maxwell A. Xu, Shirley You Ren,
- Abstract要約: 本稿では,ゼロショット性能の強い領域にまたがる一般化可能な情報を学習する,新しいマルチモーダル時系列LPM手法を提案する。
提案モデルでは,特定の時系列特徴を反映した潜時表現を学習し,ゼロショット推論タスクのセットにおいてGPT-4oより優れることを示す。
- 参考スコア(独自算出の注目度): 0.4369058206183195
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Multi-modal large language models (MLLMs) have enabled numerous advances in understanding and reasoning in domains like vision, but we have not yet seen this broad success for time-series. Although prior works on time-series MLLMs have shown promising performance in time-series forecasting, very few works show how an LLM could be used for time-series reasoning in natural language. We propose a novel multi-modal time-series LLM approach that learns generalizable information across various domains with powerful zero-shot performance. First, we train a lightweight time-series encoder on top of an LLM to directly extract time-series information. Then, we fine-tune our model with chain-of-thought augmented time-series tasks to encourage the model to generate reasoning paths. We show that our model learns a latent representation that reflects specific time-series features (e.g. slope, frequency), as well as outperforming GPT-4o on a set of zero-shot reasoning tasks on a variety of domains.
- Abstract(参考訳): マルチモーダルな大規模言語モデル (MLLM) は視覚などの領域における理解と推論の多くの進歩を可能にしてきたが、この広範な成功をまだ見ていない。
時系列MLLMに関する先行研究は、時系列予測において有望な性能を示したが、自然言語の時系列推論にLLMをどのように使用できるかを示す研究はほとんどない。
本稿では,ゼロショット性能の強い領域にまたがる一般化可能な情報を学習する,新しいマルチモーダル時系列LPM手法を提案する。
まず,LLM上に軽量な時系列エンコーダをトレーニングし,時系列情報を直接抽出する。
そこで,本モデルにチェーン・オブ・イン・シンクテッドな時系列タスクを付加し,推論経路の生成を促す。
本モデルでは,特定の時系列特徴(例えば,傾き,周波数)を反映した潜時表現を学習し,様々な領域におけるゼロショット推論タスクにおいて,GPT-4oよりも優れることを示す。
関連論文リスト
- Are Language Models Actually Useful for Time Series Forecasting? [21.378728572776897]
LLM成分を除去したり,基本的な注意層に置き換えたりしても,予測性能は低下しないことがわかった。
また、計算コストがかなり高いにもかかわらず、事前訓練されたLLMは、スクラッチから訓練されたモデルに劣らないことが判明した。
我々は時系列エンコーダを探索し、パッチとアテンション構造がLLMベースの予測器と同様に動作することを示す。
論文 参考訳(メタデータ) (2024-06-22T03:33:38Z) - Time Series Forecasting with LLMs: Understanding and Enhancing Model Capabilities [46.02234423159257]
大規模言語モデル(LLM)は多くの分野に適用され、近年急速に発展してきた。
近年の研究では、大規模な言語モデルを、さらなる微調整を行なわずに、アンフェロショット時系列推論として扱っている。
本研究は,LLMが周期性に欠けるデータセットにおいて,明確なパターンや傾向を持つ時系列予測において良好に機能することを示す。
論文 参考訳(メタデータ) (2024-02-16T17:15:28Z) - Empowering Time Series Analysis with Large Language Models: A Survey [24.202539098675953]
本稿では,大規模言語モデルを用いた時系列解析手法の体系的概要について述べる。
具体的には、まず、時系列の文脈で言語モデルを適用する際の課題とモチベーションについて述べる。
次に、既存のメソッドを異なるグループ(ダイレクトクエリ、トークン化、プロンプトデザイン、ファインチューン、モデル統合)に分類し、各グループにおける主要なアイデアを強調します。
論文 参考訳(メタデータ) (2024-02-05T16:46:35Z) - Position: What Can Large Language Models Tell Us about Time Series Analysis [69.70906014827547]
現在の大規模言語モデル(LLM)は時系列解析に革命をもたらす可能性があると我々は主張する。
このような進歩は、時系列のモダリティスイッチングや質問応答など、幅広い可能性を解き放つ可能性がある。
論文 参考訳(メタデータ) (2024-02-05T04:17:49Z) - AutoTimes: Autoregressive Time Series Forecasters via Large Language Models [67.83502953961505]
AutoTimesは時系列を言語トークンの埋め込み空間に投影し、任意の長さで将来予測を生成する。
時系列をプロンプトとして定式化し、ルックバックウィンドウを越えて予測のコンテキストを拡張する。
AutoTimesは、トレーニング可能なパラメータが0.1%、トレーニング/推論のスピードアップが5ドル以上で最先端を実現している。
論文 参考訳(メタデータ) (2024-02-04T06:59:21Z) - Speech Translation with Large Language Models: An Industrial Practice [64.5419534101104]
LLM-STは,事前学習型大言語モデル(LLM)に基づいて構築された,新規で効果的な音声翻訳モデルである。
大規模言語モデル(LLM)を音声エンコーダと統合し、マルチタスクの命令チューニングを利用することで、LLM-STは正確なタイムスタンプと翻訳を生成することができる。
英語と中国語のデータセットの厳密な実験を通じて,LLM-STの異常な性能を示す。
論文 参考訳(メタデータ) (2023-12-21T05:32:49Z) - Large Language Models Are Zero-Shot Time Series Forecasters [48.73953666153385]
時系列を数値桁の列として符号化することにより、テキストの次トーケン予測として時系列予測をフレーム化することができる。
GPT-3 や LLaMA-2 のような大規模言語モデル (LLM) は、ダウンストリームタスクでトレーニングされた目的構築された時系列モデルの性能に匹敵する、あるいはそれ以上のレベルにおいて、驚くほどゼロショット・エクスポレート・時系列を生成できる。
論文 参考訳(メタデータ) (2023-10-11T19:01:28Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。