論文の概要: InstructTime++: Time Series Classification with Multimodal Language Modeling via Implicit Feature Enhancement
- arxiv url: http://arxiv.org/abs/2601.14968v1
- Date: Wed, 21 Jan 2026 13:12:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-22 21:27:50.371847
- Title: InstructTime++: Time Series Classification with Multimodal Language Modeling via Implicit Feature Enhancement
- Title(参考訳): InstructTime++: 命令型機能拡張によるマルチモーダル言語モデリングによる時系列分類
- Authors: Mingyue Cheng, Xiaoyu Tao, Huajian Zhang, Qi Liu, Enhong Chen,
- Abstract要約: InstructTimeは、時系列分類をマルチモーダルな生成タスクとして再構成する新しいフレームワークである。
InstructTime++は、言語モデルの限定的な帰納バイアスを補うために、暗黙のフィーチャモデリングを導入することで、InstructTimeを拡張している。
- 参考スコア(独自算出の注目度): 52.17579028504616
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most existing time series classification methods adopt a discriminative paradigm that maps input sequences directly to one-hot encoded class labels. While effective, this paradigm struggles to incorporate contextual features and fails to capture semantic relationships among classes. To address these limitations, we propose InstructTime, a novel framework that reformulates time series classification as a multimodal generative task. Specifically, continuous numerical sequences, contextual textual features, and task instructions are treated as multimodal inputs, while class labels are generated as textual outputs by tuned language models. To bridge the modality gap, InstructTime introduces a time series discretization module that converts continuous sequences into discrete temporal tokens, together with an alignment projection layer and a generative self-supervised pre-training strategy to enhance cross-modal representation alignment. Building upon this framework, we further propose InstructTime++, which extends InstructTime by incorporating implicit feature modeling to compensate for the limited inductive bias of language models. InstructTime++ leverages specialized toolkits to mine informative implicit patterns from raw time series and contextual inputs, including statistical feature extraction and vision-language-based image captioning, and translates them into textual descriptions for seamless integration. Extensive experiments on multiple benchmark datasets demonstrate the superior performance of InstructTime++.
- Abstract(参考訳): 既存の時系列分類法では、入力シーケンスを直接1ホットのエンコードされたクラスラベルにマッピングする識別パラダイムが採用されている。
効果的ではあるが、このパラダイムは文脈的特徴を組み込むのに苦労し、クラス間のセマンティックな関係を捉えるのに失敗する。
これらの制約に対処するために,時系列分類をマルチモーダルな生成タスクとして再構成する新しいフレームワークであるInstructTimeを提案する。
具体的には、連続的な数値列、文脈的テキスト特徴、タスク命令をマルチモーダル入力として扱い、クラスラベルをチューニング言語モデルによりテキスト出力として生成する。
モダリティギャップを埋めるために、InstructTimeは時系列の離散化モジュールを導入し、連続シーケンスを離散時間トークンに変換する。
このフレームワーク上に構築されたInstructTime++は,言語モデルの限定的帰納バイアスを補うために,暗黙的特徴モデリングを取り入れることで,InstructTimeを拡張する。
InstructTime++は、統計的特徴抽出や視覚言語に基づく画像キャプションなど、生の時系列やコンテキスト入力から情報的な暗黙的パターンを抽出するために、特殊なツールキットを活用し、それらをシームレスな統合のためにテキスト記述に変換する。
複数のベンチマークデータセットに対する大規模な実験は、InstructTime++の優れたパフォーマンスを示している。
関連論文リスト
- Teaching Time Series to See and Speak: Forecasting with Aligned Visual and Textual Perspectives [22.10401153489018]
時系列の予測は伝統的に単調な数値入力に依存している。
生の時系列を構造化された視覚的・テキスト的視点に変換するマルチモーダルコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-30T17:59:14Z) - TimesBERT: A BERT-Style Foundation Model for Time Series Understanding [72.64824086839631]
GPTスタイルのモデルは時系列予測の基礎モデルとして位置づけられている。
BERTスタイルのアーキテクチャは時系列理解のために完全にアンロックされていない。
時系列の汎用表現を学ぶために TimesBERT を設計する。
私たちのモデルは、さまざまなドメインにまたがる2600億のタイムポイントで事前トレーニングされています。
論文 参考訳(メタデータ) (2025-02-28T17:14:44Z) - Language in the Flow of Time: Time-Series-Paired Texts Weaved into a Unified Temporal Narrative [65.84249211767921]
テキスト・アズ・タイム・シリーズ(TaTS)は、既存の数値のみの時系列モデルにプラグインできる。
TaTSはモデルアーキテクチャを変更することなく予測性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2025-02-13T03:43:27Z) - TempoGPT: Enhancing Time Series Reasoning via Quantizing Embedding [13.996105878417204]
本稿では,マルチモーダル時系列データ構築手法とマルチモーダル時系列言語モデル(TLM, TempoGPT)を提案する。
ホワイトボックスシステム内の変数-システム関係を解析することにより,複雑な推論タスクのためのマルチモーダルデータを構築する。
広範な実験により、TempoGPTは時間的情報を正確に知覚し、結論を論理的に推論し、構築された複雑な時系列推論タスクにおける最先端の処理を達成することが示されている。
論文 参考訳(メタデータ) (2025-01-13T13:47:05Z) - Hierarchical Multimodal LLMs with Semantic Space Alignment for Enhanced Time Series Classification [4.5939667818289385]
HiTimeは階層的なマルチモーダルモデルであり、時間的情報を大きな言語モデルにシームレスに統合する。
本研究は, 時間的特徴をLCMに組み込むことにより, 時系列解析の進歩に寄与する可能性が示唆された。
論文 参考訳(メタデータ) (2024-10-24T12:32:19Z) - Advancing Time Series Classification with Multimodal Language Modeling [6.624754582682479]
InstructTimeは、時系列分類を学習から生成までのパラダイムとして再形成するための新しい試みである。
中心となる考え方は、タスク固有の命令と生の時系列の両方をマルチモーダル入力として扱うマルチモーダル理解タスクとして時系列の分類を定式化することである。
ベンチマークデータセット上で大規模な実験が行われ、その結果、InstructTimeの優れたパフォーマンスが明らかになった。
論文 参考訳(メタデータ) (2024-03-19T02:32:24Z) - TimeMAE: Self-Supervised Representations of Time Series with Decoupled
Masked Autoencoders [55.00904795497786]
トランスフォーマネットワークに基づく転送可能な時系列表現を学習するための,新しい自己教師型パラダイムであるTimeMAEを提案する。
TimeMAEは双方向符号化方式を用いて時系列の豊富な文脈表現を学習する。
新たに挿入されたマスク埋め込みによって生じる不一致を解消するため、分離されたオートエンコーダアーキテクチャを設計する。
論文 参考訳(メタデータ) (2023-03-01T08:33:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。