論文の概要: On the Internal Semantics of Time-Series Foundation Models
- arxiv url: http://arxiv.org/abs/2511.15324v1
- Date: Wed, 19 Nov 2025 10:41:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-20 15:51:28.765445
- Title: On the Internal Semantics of Time-Series Foundation Models
- Title(参考訳): 時系列基礎モデルの内部意味論について
- Authors: Atharva Pandey, Abhilash Neog, Gautam Jajoo,
- Abstract要約: 時系列ファウンデーションモデル(TSFM)は、多様な時間領域をまたがって学習するための普遍的なパラダイムとして登場した。
本稿では,これらのモデルが基本時系列概念を表現する内部メカニズムについて考察する。
- 参考スコア(独自算出の注目度): 5.378537041020883
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time-series Foundation Models (TSFMs) have recently emerged as a universal paradigm for learning across diverse temporal domains. However, despite their empirical success, the internal mechanisms by which these models represent fundamental time-series concepts remain poorly understood. In this work, we undertake a systematic investigation of concept interpretability in TSFMs. Specifically, we examine: (i) which layers encode which concepts, (ii) whether concept parameters are linearly recoverable, (iii) how representations evolve in terms of concept disentanglement and abstraction across model depth, and (iv) how models process compositions of concepts. We systematically probe these questions using layer-wise analyses, linear recoverability tests, and representation similarity measures, providing a structured account of TSFM semantics. The resulting insights show that early layers mainly capture local, time-domain patterns (e.g., AR(1), level shifts, trends), while deeper layers encode dispersion and change-time signals, with spectral and warping factors remaining the hardest to recover linearly. In compositional settings, however, probe performance degrades, revealing interference between concepts. This highlights that while atomic concepts are reliably localized, composition remains a challenge, underscoring a key limitation in current TSFMs' ability to represent interacting temporal phenomena.
- Abstract(参考訳): 時系列基礎モデル(TSFM)は、最近、多様な時間領域をまたがって学習するための普遍的なパラダイムとして登場した。
しかし、その実証的な成功にもかかわらず、これらのモデルが基本的な時系列の概念を表わす内部メカニズムはいまだに理解されていない。
本研究では,TSFMにおける概念解釈可能性に関する系統的研究を行う。
具体的には、以下の点について調べる。
(i)どの層がどの概念をコードしているか。
(二 概念パラメータが線形に回復可能かどうか。)
三 モデル深度にまたがる概念の絡み合い及び抽象化の観点で表現がどのように進化するか、及び
(4)概念の構成をモデルがどのように処理するか。
階層解析,線形回復可能性試験,表現類似度測定を用いてこれらの質問を体系的に探索し,TSFMセマンティクスを構造化した。
その結果、初期層は主に局所的な時間領域パターン(AR(1)、レベルシフト、トレンド)を捉え、より深い層は分散と変化時間信号をエンコードし、スペクトルやワープ要因は線形に回復するのが最も難しい。
しかし、構成的な設定では、プローブ性能は劣化し、概念間の干渉が明らかになる。
このことは、原子の概念は確実に局所化されているが、組成は依然として課題であり、相互作用する時間現象を表現できる現在のTSFMの能力に重要な限界があることを示している。
関連論文リスト
- A Comparative Analysis of Contextual Representation Flow in State-Space and Transformer Architectures [27.45316137669387]
状態空間モデル(SSM)は、長いシーケンス処理のためにTransformer-Based Models(TBM)の効率的な代替品として登場した。
本稿では,SSM と TBM における表現伝搬の統一・トークン・層レベルでの初めての解析について述べる。
TBMはトークン表現を急速に均質化し、多様性は後層のみに再燃し、SSMはトークンの特異性を早期に保存するが、より深い均質化に収束する。
論文 参考訳(メタデータ) (2025-10-08T04:46:11Z) - Shortcuts and Identifiability in Concept-based Models from a Neuro-Symbolic Lens [16.834053030732548]
概念ベースモデル(concept-based Model)は、入力を高レベルな概念にマッピングする概念抽出器と、これらを予測に変換する推論層を学習するニューラルネットワークである。
概念ベースモデルと推論ショートカット(RS)の新たな接続を確立することでこの問題を研究する。
実験の結果は、RSの影響を浮き彫りにし、既存の手法と複数の自然緩和戦略が組み合わさっても、実際にこれらの条件を満たせない場合が多いことを示している。
論文 参考訳(メタデータ) (2025-02-16T19:45:09Z) - ECATS: Explainable-by-design concept-based anomaly detection for time series [0.5956301166481089]
本稿では,概念をSTL(Signal Temporal Logic)公式として表現する概念に基づくニューロシンボリックアーキテクチャであるECATSを提案する。
我々は,局所的な解釈可能性を確保しつつ,優れた分類性能が得られることを示す。
論文 参考訳(メタデータ) (2024-05-17T08:12:53Z) - Attractor Memory for Long-Term Time Series Forecasting: A Chaos Perspective [63.60312929416228]
textbftextitAttraosはカオス理論を長期時系列予測に取り入れている。
本研究では,AttraosがPatchTSTと比較して,パラメータの12分の1しか持たない主流データセットやカオスデータセットにおいて,LTSF法よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-02-18T05:35:01Z) - SpatioTemporal Focus for Skeleton-based Action Recognition [66.8571926307011]
グラフ畳み込みネットワーク(GCN)は骨格に基づく行動認識において広く採用されている。
近年提案されている骨格に基づく行動認識法の性能は以下の要因によって制限されていると論じる。
近年の注目機構に着想を得て,アクション関連関係情報を取得するためのマルチグラインド・コンテキスト集中モジュール MCF を提案する。
論文 参考訳(メタデータ) (2022-03-31T02:45:24Z) - Supporting Optimal Phase Space Reconstructions Using Neural Network
Architecture for Time Series Modeling [68.8204255655161]
位相空間特性を暗黙的に学習する機構を持つ人工ニューラルネットワークを提案する。
私たちのアプローチは、ほとんどの最先端戦略と同じくらいの競争力があるか、あるいは優れているかのどちらかです。
論文 参考訳(メタデータ) (2020-06-19T21:04:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。