論文の概要: An Exploratory Study to Repurpose LLMs to a Unified Architecture for Time Series Classification
- arxiv url: http://arxiv.org/abs/2601.09971v1
- Date: Thu, 15 Jan 2026 01:22:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-16 19:43:18.936954
- Title: An Exploratory Study to Repurpose LLMs to a Unified Architecture for Time Series Classification
- Title(参考訳): LLMを時系列分類のための統一アーキテクチャに再利用するための探索的研究
- Authors: Hansen He, Shuheng Li,
- Abstract要約: インセプションは唯一のエンコーダアーキテクチャであり、LCMバックボーンと統合された場合、常にパフォーマンスが向上する。
本研究は,ハイブリッドLLMアーキテクチャにおける時系列エンコーダの選択の影響を明らかにするとともに,インセプションモデルが将来のLLM駆動型時系列学習の有望な方向性であることを示す。
- 参考スコア(独自算出の注目度): 0.9126158368122342
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series classification (TSC) is a core machine learning problem with broad applications. Recently there has been growing interest in repurposing large language models (LLMs) for TSC, motivated by their strong reasoning and generalization ability. Prior work has primarily focused on alignment strategies that explicitly map time series data into the textual domain; however, the choice of time series encoder architecture remains underexplored. In this work, we conduct an exploratory study of hybrid architectures that combine specialized time series encoders with a frozen LLM backbone. We evaluate a diverse set of encoder families, including Inception, convolutional, residual, transformer-based, and multilayer perceptron architectures, among which the Inception model is the only encoder architecture that consistently yields positive performance gains when integrated with an LLM backbone. Overall, this study highlights the impact of time series encoder choice in hybrid LLM architectures and points to Inception-based models as a promising direction for future LLM-driven time series learning.
- Abstract(参考訳): 時系列分類(TSC)は、幅広い応用におけるコア機械学習問題である。
近年,多言語モデル (LLM) をTLCに置き換えることへの関心が高まっている。
これまでの研究は主に、時系列データをテキスト領域に明示的にマッピングするアライメント戦略に重点を置いてきたが、時系列エンコーダアーキテクチャの選択は未検討のままである。
本研究では,特殊な時系列エンコーダと冷凍LDMバックボーンを組み合わせたハイブリッドアーキテクチャの探索的研究を行う。
我々は、インセプション、畳み込み、残差、トランスフォーマーベース、多層パーセプトロンアーキテクチャなど、多種多様なエンコーダ群を評価し、その中で、インセプションモデルがLLMバックボーンと統合された場合、一定の性能向上をもたらす唯一のエンコーダアーキテクチャである。
本研究は,ハイブリッドLLMアーキテクチャにおける時系列エンコーダ選択の影響を明らかにするとともに,インセプションモデルが将来のLLM駆動型時系列学習にとって有望な方向であることを示す。
関連論文リスト
- Logo-LLM: Local and Global Modeling with Large Language Models for Time Series Forecasting [6.537801724497769]
時系列予測は複数のドメインで重要であり、時系列データはローカルパターンとグローバル依存関係の両方を示す。
大規模言語モデル(LLM)を時系列予測に適用する最近の手法は、LCMをブラックボックスエンコーダとして扱うことにより、この制限を継承する。
マルチスケールの時間的特徴を明示的に抽出し,モデル化する新しいLLMベースのフレームワークであるLogo-LLMを提案する。
論文 参考訳(メタデータ) (2025-05-16T09:10:49Z) - TSRM: A Lightweight Temporal Feature Encoding Architecture for Time Series Forecasting and Imputation [1.7819099868722776]
本稿では時系列予測と計算のための時系列表現モデル(TSRM)と呼ばれる時間的特徴符号化アーキテクチャを提案する。
アーキテクチャはCNNベースの表現層を中心に構成されており、それぞれが独立した表現学習タスクに特化している。
アーキテクチャは基本的に、Transformerエンコーダにインスパイアされた構成に基づいており、そのコアに自己保持機構がある。
論文 参考訳(メタデータ) (2025-04-26T09:53:20Z) - LLM-PS: Empowering Large Language Models for Time Series Forecasting with Temporal Patterns and Semantics [56.99021951927683]
Time Series Forecasting (TSF) は、金融計画や健康モニタリングなど、多くの現実世界のドメインにおいて重要である。
既存のLarge Language Models (LLM) は通常、時系列データ固有の特性を無視するため、非最適に実行する。
時系列データから基本的なtextitPatterns と有意義な textitSemantics を学習し,TLF のための LLM-PS を提案する。
論文 参考訳(メタデータ) (2025-03-12T11:45:11Z) - Hierarchical Multimodal LLMs with Semantic Space Alignment for Enhanced Time Series Classification [4.5939667818289385]
HiTimeは階層的なマルチモーダルモデルであり、時間的情報を大きな言語モデルにシームレスに統合する。
本研究は, 時間的特徴をLCMに組み込むことにより, 時系列解析の進歩に寄与する可能性が示唆された。
論文 参考訳(メタデータ) (2024-10-24T12:32:19Z) - Time-LLM: Time Series Forecasting by Reprogramming Large Language Models [110.20279343734548]
時系列予測は多くの実世界の力学系において重要な意味を持つ。
時系列予測のための大規模言語モデルを再利用するための再プログラミングフレームワークであるTime-LLMを提案する。
Time-LLMは、最先端の特殊な予測モデルよりも優れた、強力な時系列学習者である。
論文 参考訳(メタデータ) (2023-10-03T01:31:25Z) - UMMAFormer: A Universal Multimodal-adaptive Transformer Framework for
Temporal Forgery Localization [16.963092523737593]
本稿では,時間的フォージェリー・ローカライゼーション(TFL)のための新しいフレームワークを提案し,マルチモーダル適応によるフォルジェリー・セグメントの予測を行う。
提案手法は,Lav-DF,TVIL,Psyndなど,ベンチマークデータセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2023-08-28T08:20:30Z) - Leaping Into Memories: Space-Time Deep Feature Synthesis [93.10032043225362]
内部モデルから映像を合成するアーキテクチャ非依存の手法であるLEAPSを提案する。
我々は,Kineetics-400に基づく多種多様なアーキテクチャの進化的注目を反転させることにより,LEAPSの適用性を定量的かつ定性的に評価する。
論文 参考訳(メタデータ) (2023-03-17T12:55:22Z) - Multi-Faceted Representation Learning with Hybrid Architecture for Time
Series Classification [16.64345034889185]
SARCoN(Self-Attentive Recurrent Convolutional Networks)と呼ばれるハイブリッドニューラルネットワークを提案する。
SARCoNは、長期記憶ネットワークと自己拡張機構と完全な畳み込みネットワークの合成である。
我々の研究は、時系列分類の理解を深める新しいアングルを提供し、提案したモデルを現実世界のアプリケーションに最適な選択肢とみなす。
論文 参考訳(メタデータ) (2020-12-21T16:42:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。