論文の概要: TRACE: Grounding Time Series in Context for Multimodal Embedding and Retrieval
- arxiv url: http://arxiv.org/abs/2506.09114v1
- Date: Tue, 10 Jun 2025 17:59:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-13 06:35:01.817544
- Title: TRACE: Grounding Time Series in Context for Multimodal Embedding and Retrieval
- Title(参考訳): TRACE:マルチモーダルな埋め込みと検索のためのコンテキストにおける時系列のグラウンド化
- Authors: Jialin Chen, Ziyu Zhao, Gaukhar Nurbek, Aosong Feng, Ali Maatouk, Leandros Tassiulas, Yifeng Gao, Rex Ying,
- Abstract要約: TRACEは、時系列をテキストコンテキストに埋め込む汎用マルチモーダルレトリバーである。
Text-to-TimeseriesやTimeeries-to-Textなど、柔軟なクロスモーダル検索モードをサポートする。
TRACEは強力なスタンドアロンエンコーダとしても機能し、コンテキスト対応の表現を洗練するための軽量なタスク特化チューニングを備えている。
- 参考スコア(独自算出の注目度): 22.412759868927118
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The ubiquity of dynamic data in domains such as weather, healthcare, and energy underscores a growing need for effective interpretation and retrieval of time-series data. These data are inherently tied to domain-specific contexts, such as clinical notes or weather narratives, making cross-modal retrieval essential not only for downstream tasks but also for developing robust time-series foundation models by retrieval-augmented generation (RAG). Despite the increasing demand, time-series retrieval remains largely underexplored. Existing methods often lack semantic grounding, struggle to align heterogeneous modalities, and have limited capacity for handling multi-channel signals. To address this gap, we propose TRACE, a generic multimodal retriever that grounds time-series embeddings in aligned textual context. TRACE enables fine-grained channel-level alignment and employs hard negative mining to facilitate semantically meaningful retrieval. It supports flexible cross-modal retrieval modes, including Text-to-Timeseries and Timeseries-to-Text, effectively linking linguistic descriptions with complex temporal patterns. By retrieving semantically relevant pairs, TRACE enriches downstream models with informative context, leading to improved predictive accuracy and interpretability. Beyond a static retrieval engine, TRACE also serves as a powerful standalone encoder, with lightweight task-specific tuning that refines context-aware representations while maintaining strong cross-modal alignment. These representations achieve state-of-the-art performance on downstream forecasting and classification tasks. Extensive experiments across multiple domains highlight its dual utility, as both an effective encoder for downstream applications and a general-purpose retriever to enhance time-series models.
- Abstract(参考訳): 気象、医療、エネルギーといった領域における動的データの普遍性は、時系列データの効果的な解釈と検索の必要性の高まりを浮き彫りにしている。
これらのデータは本質的に、臨床ノートや天気予報のようなドメイン固有のコンテキストに結びついており、下流のタスクだけでなく、検索強化世代(RAG)による堅牢な時系列基盤モデルの開発にも欠かせない。
需要の高まりにもかかわらず、時系列検索はいまだに過小評価されている。
既存の手法では、セマンティックグラウンド化が欠如し、不均一なモダリティの整合に苦慮し、マルチチャネル信号を扱う能力に限界がある。
このギャップに対処するため, TRACE という汎用マルチモーダル・レトリバーを提案する。
TRACEは細粒度のチャネルレベルのアライメントを可能にし、意味論的に意味のある検索を容易にするために硬い負のマイニングを使用する。
Text-to-TimeseriesやTimeeries-to-Textなど、柔軟なクロスモーダル検索モードをサポートし、言語記述と複雑な時間パターンを効果的にリンクする。
意味論的に関連するペアを検索することで、TRACEは情報的コンテキストで下流モデルを強化し、予測精度と解釈可能性を向上させる。
静的検索エンジン以外にも、TRACEは強力なスタンドアロンエンコーダとしても機能し、強力なクロスモーダルアライメントを維持しながらコンテキスト認識表現を洗練する軽量なタスク特化チューニングを備えている。
これらの表現は、下流予測および分類タスクにおける最先端のパフォーマンスを達成する。
複数の領域にわたる大規模な実験は、ダウンストリームアプリケーションに有効なエンコーダと、時系列モデルを強化する汎用レトリバーの両方として、そのデュアルユーティリティを強調している。
関連論文リスト
- Multivariate Long-term Time Series Forecasting with Fourier Neural Filter [55.09326865401653]
我々はFNFをバックボーンとして、DBDをアーキテクチャとして導入し、空間時間モデルのための優れた学習能力と最適な学習経路を提供する。
FNFは、局所時間領域とグローバル周波数領域の情報処理を単一のバックボーン内で統合し、空間的モデリングに自然に拡張することを示す。
論文 参考訳(メタデータ) (2025-06-10T18:40:20Z) - FreRA: A Frequency-Refined Augmentation for Contrastive Learning on Time Series Classification [56.925103708982164]
周波数領域からの新たな視点を示し、ダウンストリーム分類の利点として、グローバル、独立、コンパクトの3つを識別する。
本稿では,分類タスクにおける時系列のコントラスト学習に適した,軽量で効果的な周波数補充拡張(FreRA)を提案する。
FreRAは、時系列分類、異常検出、転送学習タスクにおいて、常に10つの主要なベースラインを上回ります。
論文 参考訳(メタデータ) (2025-05-29T07:18:28Z) - STRAP: Spatio-Temporal Pattern Retrieval for Out-of-Distribution Generalization [34.53308463024231]
本稿では,時空間探索型パターン学習フレームワークSTRAPを提案する。
推論中、STRAPは現在の入力と類似性に基づいてライブラリから関連するパターンを検索し、プラグイン・アンド・プレイ・プロンプト機構を介してモデルに注入する。
複数の実世界のストリーミンググラフデータセットに対する実験によると、STRAPはSTOODタスクの最先端STGNNベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2025-05-26T06:11:05Z) - Unify and Anchor: A Context-Aware Transformer for Cross-Domain Time Series Forecasting [26.59526791215]
ドメイン間の時系列予測において,時間的パターンの複雑さと意味的ミスアライメントの2つの重要な課題を識別する。
本稿では,周波数成分を統一的な視点でアンタングルする"Unify and Anchor"転送パラダイムを提案する。
本稿では,構造化表現に時系列コーディネータを用いたTransformerベースのモデルであるContexTSTを紹介する。
論文 参考訳(メタデータ) (2025-03-03T04:11:14Z) - Understanding Synthetic Context Extension via Retrieval Heads [51.8869530817334]
本稿では,検索と推論を必要とする3つの長文タスクに対する合成データの微調整について検討する。
合成データに基づいてトレーニングされたモデルは、実際のデータには及ばないが、驚くべきことに、ミスマッチを解釈できる。
我々の結果は、合成データの微調整性能の解釈方法と、長期にわたる実世界の能力学習のためのより良いデータ作成方法に光を当てた。
論文 参考訳(メタデータ) (2024-10-29T17:55:00Z) - Hierarchical Multimodal LLMs with Semantic Space Alignment for Enhanced Time Series Classification [4.5939667818289385]
HiTimeは階層的なマルチモーダルモデルであり、時間的情報を大きな言語モデルにシームレスに統合する。
本研究は, 時間的特徴をLCMに組み込むことにより, 時系列解析の進歩に寄与する可能性が示唆された。
論文 参考訳(メタデータ) (2024-10-24T12:32:19Z) - Analyzing Temporal Complex Events with Large Language Models? A Benchmark towards Temporal, Long Context Understanding [57.62275091656578]
時間的複合イベント(TCE)として、長い期間にわたって多くのニュース記事から構成される複合イベントについて述べる。
本稿では,Large Language Models (LLMs) を用いて,TCE内のイベントチェーンを系統的に抽出し,解析する手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T16:42:17Z) - Unsupervised Representation Learning for Time Series with Temporal
Neighborhood Coding [8.45908939323268]
非定常時系列に対する一般化可能な表現を学習するための自己教師型フレームワークを提案する。
我々のモチベーションは、時系列データの動的性質をモデル化する能力が特に有用である医療分野に起因している。
論文 参考訳(メタデータ) (2021-06-01T19:53:24Z) - Interpretable Time-series Representation Learning With Multi-Level
Disentanglement [56.38489708031278]
Disentangle Time Series (DTS)は、シーケンシャルデータのための新しいDisentanglement Enhanceingフレームワークである。
DTSは時系列の解釈可能な表現として階層的意味概念を生成する。
DTSは、セマンティック概念の解釈性が高く、下流アプリケーションで優れたパフォーマンスを実現します。
論文 参考訳(メタデータ) (2021-05-17T22:02:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。