論文の概要: TS-Haystack: A Multi-Scale Retrieval Benchmark for Time Series Language Models
- arxiv url: http://arxiv.org/abs/2602.14200v1
- Date: Sun, 15 Feb 2026 15:50:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 16:22:49.733002
- Title: TS-Haystack: A Multi-Scale Retrieval Benchmark for Time Series Language Models
- Title(参考訳): TS-Haystack: 時系列言語モデルのためのマルチスケール検索ベンチマーク
- Authors: Nicolas Zumarraga, Thomas Kaar, Ning Wang, Maxwell A. Xu, Max Rosenblattl, Markus Kreft, Kevin O'Sullivan, Paul Schmiedmayer, Patrick Langer, Robert Jakob,
- Abstract要約: 時系列言語モデル(TSLM)は、自然言語における連続的な信号の推論のための統一モデルとして登場している。
既存のモデルは通常、短いシーケンスでトレーニングされ、評価されるが、現実の時系列センサーストリームは数百万のデータポイントにまたがる。
TS-Haystackは4つのカテゴリにまたがる10のタスクタイプからなる長期コンテキストの時間的評価ベンチマークである。
- 参考スコア(独自算出の注目度): 4.387988928531881
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time Series Language Models (TSLMs) are emerging as unified models for reasoning over continuous signals in natural language. However, long-context retrieval remains a major limitation: existing models are typically trained and evaluated on short sequences, while real-world time-series sensor streams can span millions of datapoints. This mismatch requires precise temporal localization under strict computational constraints, a regime that is not captured by current benchmarks. We introduce TS-Haystack, a long-context temporal retrieval benchmark comprising ten task types across four categories: direct retrieval, temporal reasoning, multi-step reasoning and contextual anomaly. The benchmark uses controlled needle insertion by embedding short activity bouts into longer longitudinal accelerometer recordings, enabling systematic evaluation across context lengths ranging from seconds to 2 hours per sample. We hypothesize that existing TSLM time series encoders overlook temporal granularity as context length increases, creating a task-dependent effect: compression aids classification but impairs retrieval of localized events. Across multiple model and encoding strategies, we observe a consistent divergence between classification and retrieval behavior. Learned latent compression preserves or improves classification accuracy at compression ratios up to 176$\times$, but retrieval performance degrades with context length, incurring in the loss of temporally localized information. These results highlight the importance of architectural designs that decouple sequence length from computational complexity while preserving temporal fidelity.
- Abstract(参考訳): 時系列言語モデル(TSLM)は、自然言語における連続的な信号の推論のための統一モデルとして登場している。
既存のモデルは訓練され、短いシーケンスで評価されるのに対し、現実の時系列センサーストリームは数百万のデータポイントにまたがる可能性がある。
このミスマッチは、厳密な計算制約の下で正確な時間的局所化を必要とする。
TS-Haystackは、直接検索、時間的推論、多段階推論、文脈異常という4つのカテゴリにまたがる10のタスクタイプからなる、長期コンテキストの時間的評価ベンチマークである。
このベンチマークでは、短いアクティビティ・ブウトを長尺の加速度計記録に埋め込むことによって、制御された針挿入を使用し、サンプル1秒あたり秒から2時間までのコンテキスト長を体系的に評価することができる。
既存のTSLM時系列エンコーダは、文脈長が増加するにつれて時間的粒度を無視し、タスク依存効果を生じさせる:圧縮は分類を助けるが、局所化イベントの検索を妨げている。
複数のモデルと符号化戦略にわたって、分類と検索行動の一貫性のある相違を観察する。
学習された潜在圧縮は、最大176$\times$の圧縮比で分類精度を保存または改善するが、検索性能は文脈長とともに低下し、時間的局所化情報が失われる。
これらの結果は、時間的忠実性を維持しながら、列長を計算複雑性から切り離すアーキテクチャ設計の重要性を強調している。
関連論文リスト
- LiveSearchBench: An Automatically Constructed Benchmark for Retrieval and Reasoning over Dynamic Knowledge [31.40589987269264]
近年の知識更新から検索依存ベンチマークを構築するためのパイプラインであるLiveSearchBenchを紹介する。
提案手法は, 連続するウィキデータスナップショット間のデルタを計算し, 品質の3倍をフィルタし, 3段階の推論困難度で自然言語質問を合成する。
実験では、モデルが過去の事前トレーニングの事実に直面すると、パフォーマンスの低下が顕著になる。
論文 参考訳(メタデータ) (2025-11-03T10:00:49Z) - TRACE: Grounding Time Series in Context for Multimodal Embedding and Retrieval [32.06255656982559]
TRACEは、時系列をテキストコンテキストに埋め込む汎用マルチモーダルレトリバーである。
Text-to-TimeseriesやTimeeries-to-Textなど、柔軟なクロスモーダル検索モードをサポートする。
TRACEは強力なスタンドアロンエンコーダとしても機能し、コンテキスト対応の表現を洗練するための軽量なタスク特化チューニングを備えている。
論文 参考訳(メタデータ) (2025-06-10T17:59:56Z) - Timer-XL: Long-Context Transformers for Unified Time Series Forecasting [67.83502953961505]
我々は時系列の統一予測のための因果変換器Timer-XLを提案する。
大規模な事前トレーニングに基づいて、Timer-XLは最先端のゼロショット性能を達成する。
論文 参考訳(メタデータ) (2024-10-07T07:27:39Z) - Analyzing Temporal Complex Events with Large Language Models? A Benchmark towards Temporal, Long Context Understanding [57.62275091656578]
時間的複合イベント(TCE)として、長い期間にわたって多くのニュース記事から構成される複合イベントについて述べる。
本稿では,Large Language Models (LLMs) を用いて,TCE内のイベントチェーンを系統的に抽出し,解析する手法を提案する。
論文 参考訳(メタデータ) (2024-06-04T16:42:17Z) - TimeSiam: A Pre-Training Framework for Siamese Time-Series Modeling [67.02157180089573]
時系列事前トレーニングは、最近、ラベルのコストを削減し、下流の様々なタスクに利益をもたらす可能性があるとして、広く注目を集めている。
本稿では,シームズネットワークに基づく時系列の簡易かつ効果的な自己教師型事前学習フレームワークとしてTimeSiamを提案する。
論文 参考訳(メタデータ) (2024-02-04T13:10:51Z) - Retrieving Continuous Time Event Sequences using Neural Temporal Point
Processes with Learnable Hashing [24.963828650935913]
エンド・ツー・エンドのCTES検索に特化して設計された一級フレームワークであるNeuroSeqRetを提案する。
我々は,精度と効率のトレードオフに基づいて,異なる種類のアプリケーションに対する妥当性モデルの4つの変種を開発する。
実験の結果,NeuroSeqRetの精度は向上し,ハッシュ機構の有効性も示された。
論文 参考訳(メタデータ) (2023-07-13T18:54:50Z) - FormerTime: Hierarchical Multi-Scale Representations for Multivariate
Time Series Classification [53.55504611255664]
formerTimeは、多変量時系列分類タスクの分類能力を改善する階層的表現モデルである。
1)時系列データから階層的なマルチスケール表現を学習し、(2)トランスフォーマーと畳み込みネットワークの強さを継承し、(3)自己維持メカニズムによって引き起こされる効率の課題に取り組む。
論文 参考訳(メタデータ) (2023-02-20T07:46:14Z) - Once-for-All Sequence Compression for Self-Supervised Speech Models [62.60723685118747]
自己教師型音声モデルのための一括圧縮フレームワークを提案する。
このフレームワークは様々なタスクで評価され、固定圧縮率の変種と比較して限界劣化を示す。
また、適応圧縮率学習についても検討し、グリッド探索を必要とせず、タスク固有の好ましいフレーム期間を選択する能力を示す。
論文 参考訳(メタデータ) (2022-11-04T09:19:13Z) - Continuous Sign Language Recognition via Temporal Super-Resolution
Network [10.920363368754721]
本稿では,深層学習に基づく空間的時間的階層的連続手話認識モデルが大量の計算量を持つという課題を論じる。
データは、最終認識精度の損失を最小限に抑えながら、全体モデルを低減するために、密度の高い特徴シーケンスに再構成される。
2つの大規模手話データセットの実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-07-03T00:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。