論文の概要: TEST: Text Prototype Aligned Embedding to Activate LLM's Ability for
Time Series
- arxiv url: http://arxiv.org/abs/2308.08241v2
- Date: Thu, 22 Feb 2024 02:03:42 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 18:50:56.870751
- Title: TEST: Text Prototype Aligned Embedding to Activate LLM's Ability for
Time Series
- Title(参考訳): TEST: LLMの時系列処理能力を活性化するテキストプロトタイプの埋め込み
- Authors: Chenxi Sun and Hongyan Li and Yaliang Li and Shenda Hong
- Abstract要約: 本研究は, LLMに適したTS埋め込みを設計し, LLMのTSデータ処理能力を活性化するTS-for-LLMに焦点を当てる。
提案手法は TEST と命名され,まずTS をトークン化し,例,特徴,テキスト-プロトタイプ整合コントラストを通じて TS を埋め込むエンコーダを構築した。そこで TS 埋め込み空間は LLM 埋め込み層空間に整列し,その埋め込みに対して LLM をよりオープンにするソフトプロンプトを生成する。
様々な構造と大きさを持つ8つの冷凍LDMを用いたTS分類、予測、表現タスクの実験を行った。
- 参考スコア(独自算出の注目度): 40.78182290284417
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work summarizes two ways to accomplish Time-Series (TS) tasks in today's
Large Language Model (LLM) context: LLM-for-TS (model-centric) designs and
trains a fundamental large model, or fine-tunes a pre-trained LLM for TS data;
TS-for-LLM (data-centric) converts TS into a model-friendly representation to
enable the pre-trained LLM to handle TS data. Given the lack of data, limited
resources, semantic context requirements, and so on, this work focuses on
TS-for-LLM, where we aim to activate LLM's ability for TS data by designing a
TS embedding method suitable for LLM. The proposed method is named TEST. It
first tokenizes TS, builds an encoder to embed TS via instance-wise,
feature-wise, and text-prototype-aligned contrast, where the TS embedding space
is aligned to LLM embedding layer space, then creates soft prompts to make LLM
more open to that embeddings, and finally implements TS tasks using the frozen
LLM. We also demonstrate the feasibility of TS-for-LLM through theory and
experiments. Experiments are carried out on TS classification, forecasting, and
representation tasks using eight frozen LLMs with various structures and sizes.
The results show that the pre-trained LLM with TEST strategy can achieve better
or comparable performance than today's SOTA TS models and offer benefits for
few-shot and generalization. By treating LLM as the pattern machine, TEST can
endow LLM's ability to process TS data without compromising language ability.
We hope that this study will serve as a foundation for future work to support
TS+LLM progress.
- Abstract(参考訳): この研究は、今日のLarge Language Model (LLM)コンテキストでTS(Time-Series)タスクを達成するための2つの方法を要約する。 LLM-for-TS(モデル中心)の設計と訓練、またはTSデータのための事前訓練されたLLMの微調整。
データ不足、限られたリソース、セマンティックコンテキスト要件などを踏まえ、本研究はTS-for-LLMに焦点を当て、LSMに適したTS埋め込みを設計することで、LSMのデータ処理能力を活性化することを目的としている。
提案手法はTESTと呼ばれる。
最初にTSをトークン化し、インスタンスワイズ、機能ワイズ、テキストプロトタイプ整合コントラストを通じてTSを埋め込み、TS埋め込み空間をLSM埋め込み層空間に整列させ、ソフトプロンプトを作成してLSMをよりオープンにし、最後に凍結したLSMを使用してTSタスクを実装する。
また,理論と実験によりTS-for-LLMの実現可能性を示す。
様々な構造と大きさを持つ8つの冷凍LDMを用いたTS分類,予測,表現タスクの実験を行った。
以上の結果から,既存のSOTA TSモデルよりも優れた,あるいは同等な性能を達成できることが示唆された。
LLMをパターンマシンとして扱うことで、TESTは言語能力を損なうことなく、LSMのTSデータ処理能力を向上させることができる。
本研究が今後TS+LLMの進展を支えるための基盤となることを願っている。
関連論文リスト
- SWIFT: On-the-Fly Self-Speculative Decoding for LLM Inference Acceleration [10.970637831760136]
投機的復号法(SD)は,大規模言語モデル(LLM)の推論を高速化するパラダイムとして広く用いられている。
本稿では,LLMの中間層を適応的に選択して推論時にスキップする,オンザフライの自己投機的復号アルゴリズムであるSWIFTを紹介する。
SWIFTは生成したテキストの元の分布を保ちながら1.3x-1.6xの高速化を実現可能であることを示す。
論文 参考訳(メタデータ) (2024-10-09T14:15:30Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - Efficient Prompting for LLM-based Generative Internet of Things [88.84327500311464]
大規模言語モデル(LLM)は、様々なタスクにおいて顕著な能力を示しており、最近、IoT(Internet of Things)アプリケーションにLLMの能力を統合することが研究の注目を集めている。
セキュリティ上の懸念から、多くの機関は最先端の商用LLMサービスへのアクセスを避け、ローカルネットワーク環境でのオープンソースLLMのデプロイと利用を必要としている。
本研究では,LLMを用いた生成IoT(Generative IoT)システムを提案する。
論文 参考訳(メタデータ) (2024-06-14T19:24:00Z) - A Practice-Friendly LLM-Enhanced Paradigm with Preference Parsing for Sequential Recommendation [15.153844486572932]
本稿では、シーケンシャルレコメンデータシステム(SRS)のための優先構文解析(P2Rec)を用いた実践的LLM拡張パラダイムを提案する。
具体的には、情報再構成段階において、事前学習したSRSモデルの助けを借りて、協調的な情報注入のための新しいユーザレベルSFTタスクを設計する。
我々のゴールは、LLMが各ユーザのインタラクションシーケンスから対応する優先度分布を再構築することを学ばせることである。
論文 参考訳(メタデータ) (2024-06-01T07:18:56Z) - ST-LLM: Large Language Models Are Effective Temporal Learners [58.79456373423189]
大規模言語モデル(LLM)は、テキストの理解と生成において印象的な能力を示した。
ビデオベースの対話システムでビデオを効果的にエンコードし、理解する方法は、まだ解決されていない。
LLM内部の時空間シーケンスをモデル化したビデオLLMベースラインST-LLMを提案する。
論文 参考訳(メタデータ) (2024-03-30T10:11:26Z) - TransLLaMa: LLM-based Simultaneous Translation System [18.27477980076409]
Decoderのみの大規模言語モデル(LLM)は,特別な"待機"トークンを生成することで,入力セグメンテーションを直接制御できることを示す。
これにより、別個の政策の必要性が排除され、LLMは英語とドイツ語と英語とロシア語のSiMTタスクを実行できるようになる。
また, GPT-4 などのクローズドソースモデルの評価を行い, 事前訓練をせずに SiMT タスクの実行を奨励する結果を示した。
論文 参考訳(メタデータ) (2024-02-07T07:39:27Z) - Speech Translation with Large Language Models: An Industrial Practice [64.5419534101104]
LLM-STは,事前学習型大言語モデル(LLM)に基づいて構築された,新規で効果的な音声翻訳モデルである。
大規模言語モデル(LLM)を音声エンコーダと統合し、マルチタスクの命令チューニングを利用することで、LLM-STは正確なタイムスタンプと翻訳を生成することができる。
英語と中国語のデータセットの厳密な実験を通じて,LLM-STの異常な性能を示す。
論文 参考訳(メタデータ) (2023-12-21T05:32:49Z) - Scaling Sentence Embeddings with Large Language Models [43.19994568210206]
本研究では,文埋め込み性能の向上を目的としたテキスト内学習手法を提案する。
提案手法では,従来のプロンプトに基づく表現手法を自己回帰モデルに適用する。
モデルサイズをスケールすることで、数千億以上のパラメータへのスケーリングが意味的なテキスト類似性タスクのパフォーマンスを損なうことが分かる。
論文 参考訳(メタデータ) (2023-07-31T13:26:03Z) - LLM-Pruner: On the Structural Pruning of Large Language Models [65.02607075556742]
大規模言語モデル(LLM)は、言語理解と生成において顕著な能力を示している。
タスク非依存であり、元のトレーニングデータセットへの依存を最小限に抑えるという2つの制約の範囲内でLLMの圧縮に取り組む。
LLM-Prunerという名前のこの手法は、非臨界結合構造を選択的に除去する構造プルーニングを採用する。
論文 参考訳(メタデータ) (2023-05-19T12:10:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。