論文の概要: Decoding Latent Spaces: Assessing the Interpretability of Time Series Foundation Models for Visual Analytics
- arxiv url: http://arxiv.org/abs/2504.20099v1
- Date: Sat, 26 Apr 2025 17:24:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-02 19:15:54.585183
- Title: Decoding Latent Spaces: Assessing the Interpretability of Time Series Foundation Models for Visual Analytics
- Title(参考訳): 遅延空間のデコード:ビジュアル分析のための時系列基礎モデルの解釈可能性の評価
- Authors: Inmaculada Santamaria-Valenzuela, Victor Rodriguez-Fernandez, Javier Huertas-Tato, Jong Hyuk Park, David Camacho,
- Abstract要約: 本研究では,時系列基礎モデルによる潜在空間の解釈可能性について検討する。
我々は,計算,予測,分類,異常検出のためのモデルMOMENTファミリーを評価した。
- 参考スコア(独自算出の注目度): 8.924278187470678
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The present study explores the interpretability of latent spaces produced by time series foundation models, focusing on their potential for visual analysis tasks. Specifically, we evaluate the MOMENT family of models, a set of transformer-based, pre-trained architectures for multivariate time series tasks such as: imputation, prediction, classification, and anomaly detection. We evaluate the capacity of these models on five datasets to capture the underlying structures in time series data within their latent space projection and validate whether fine tuning improves the clarity of the resulting embedding spaces. Notable performance improvements in terms of loss reduction were observed after fine tuning. Visual analysis shows limited improvement in the interpretability of the embeddings, requiring further work. Results suggest that, although Time Series Foundation Models such as MOMENT are robust, their latent spaces may require additional methodological refinements to be adequately interpreted, such as alternative projection techniques, loss functions, or data preprocessing strategies. Despite the limitations of MOMENT, foundation models supose a big reduction in execution time and so a great advance for interactive visual analytics.
- Abstract(参考訳): 本研究では,時系列基礎モデルによる潜在空間の解釈可能性について検討し,その可能性に着目した。
具体的には、インプット、予測、分類、異常検出といった多変量時系列タスクのためのトランスフォーマーベースで事前訓練されたアーキテクチャであるMOMENTファミリの評価を行う。
5つのデータセット上のこれらのモデルのキャパシティを評価し、その潜在空間射影における時系列データの基盤構造を把握し、微調整が結果の埋め込み空間の明度を向上するかどうかを検証する。
微調整後,損失低減の観点から顕著な性能改善が認められた。
視覚分析は、埋め込みの解釈可能性が限定的に改善され、さらなる作業が必要であることを示している。
結果は、MOMENTのような時系列基礎モデルは堅牢であるが、その潜在空間は、代替射影技術、損失関数、データ前処理戦略など、適切な方法論の洗練を必要とする可能性があることを示唆している。
MOMENTの限界にもかかわらず、基礎モデルは実行時間の大幅な削減を前提としており、インタラクティブな視覚分析において大きな進歩をもたらす。
関連論文リスト
- Foundation Models for Time Series: A Survey [0.27835153780240135]
トランスフォーマーベースの基礎モデルは時系列解析において支配的なパラダイムとして現れてきた。
この調査は、いくつかの分野にまたがって分類する新しい分類法を導入している。
論文 参考訳(メタデータ) (2025-04-05T01:27:55Z) - Transforming Multidimensional Time Series into Interpretable Event Sequences for Advanced Data Mining [5.2863523790908955]
本稿では,多次元時系列解析における従来の手法の限界に対処する新しい表現モデルを提案する。
提案するフレームワークは,ITインフラの監視と最適化,継続的な患者モニタリングによる診断,トレンド分析,インターネットビジネスによるユーザ行動の追跡,予測など,さまざまな分野のアプリケーションに対して大きな可能性を秘めている。
論文 参考訳(メタデータ) (2024-09-22T06:27:07Z) - Explanatory Model Monitoring to Understand the Effects of Feature Shifts on Performance [61.06245197347139]
そこで本研究では,機能シフトによるブラックボックスモデルの振る舞いを説明する新しい手法を提案する。
本稿では,最適輸送と共有値の概念を組み合わせた提案手法について,説明的性能推定として紹介する。
論文 参考訳(メタデータ) (2024-08-24T18:28:19Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - Lag-Llama: Towards Foundation Models for Probabilistic Time Series
Forecasting [54.04430089029033]
本稿では,デコーダのみの変換器アーキテクチャに基づく時系列予測のための汎用基礎モデルであるLag-Llamaを提案する。
Lag-Llamaは、複数のドメインからの多様な時系列データの大規模なコーパスで事前訓練され、強力なゼロショット一般化能力を示す。
このような未確認データセットの比較的小さな部分で微調整を行うと、Lag-Llamaは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2023-10-12T12:29:32Z) - Pushing the Limits of Pre-training for Time Series Forecasting in the
CloudOps Domain [54.67888148566323]
クラウドオペレーションドメインから,大規模時系列予測データセットを3つ導入する。
強力なゼロショットベースラインであり、モデルとデータセットサイズの両方において、さらなるスケーリングの恩恵を受けています。
これらのデータセットと結果を取得することは、古典的および深層学習のベースラインを事前訓練された方法と比較した総合的なベンチマーク結果の集合である。
論文 参考訳(メタデータ) (2023-10-08T08:09:51Z) - OpenSTL: A Comprehensive Benchmark of Spatio-Temporal Predictive
Learning [67.07363529640784]
提案するOpenSTLは,一般的なアプローチを再帰的モデルと再帰的モデルに分類する。
我々は, 合成移動物体軌道, 人間の動き, 運転シーン, 交通流, 天気予報など, さまざまな領域にわたるデータセットの標準評価を行う。
リカレントフリーモデルは、リカレントモデルよりも効率と性能のバランスが良いことがわかった。
論文 参考訳(メタデータ) (2023-06-20T03:02:14Z) - ChiroDiff: Modelling chirographic data with Diffusion Models [132.5223191478268]
チャーログラフィーデータのための強力なモデルクラスである「拡散確率モデル(Denoising Diffusion Probabilistic Models)」やDDPMを導入している。
我々のモデルは「ChiroDiff」と呼ばれ、非自己回帰的であり、全体論的概念を捉えることを学び、したがって高い時間的サンプリングレートに回復する。
論文 参考訳(メタデータ) (2023-04-07T15:17:48Z) - Assessment of Spatio-Temporal Predictors in the Presence of Missing and Heterogeneous Data [23.280400290071732]
ディープラーニングアプローチは、複雑さとスケールの増大にもかかわらず、現代的なデータのモデリングにおいて、卓越した予測性能を達成する。
予測モデルの品質を評価することは、従来の統計的仮定がもはや持たないため、より困難になる。
本稿では,時間的・時間的予測型ニューラルモデルの最適性を評価するための残差分析フレームワークを提案する。
論文 参考訳(メタデータ) (2023-02-03T12:55:08Z) - Diffusion-based Time Series Imputation and Forecasting with Structured
State Space Models [2.299617836036273]
我々は、条件拡散モデルと構造化状態空間モデルという2つの新興技術に依存した計算モデルであるSSSDを提唱した。
我々は、SSSDが最先端の確率的計算値と一致し、幅広いデータセットと異なる欠点シナリオで性能を予測できることを実証する。
論文 参考訳(メタデータ) (2022-08-19T15:29:43Z) - Learning to Reconstruct Missing Data from Spatiotemporal Graphs with
Sparse Observations [11.486068333583216]
本稿では、欠落したデータポイントを再構築するための効果的なモデル学習の課題に取り組む。
我々は,高度にスパースな観測値の集合を与えられた注意に基づくアーキテクチャのクラスを提案し,時間と空間における点の表現を学習する。
技術状況と比較して、我々のモデルは予測エラーを伝播したり、前方および後方の時間依存性をエンコードするために双方向モデルを必要とすることなくスパースデータを処理します。
論文 参考訳(メタデータ) (2022-05-26T16:40:48Z) - TACTiS: Transformer-Attentional Copulas for Time Series [76.71406465526454]
時間変化量の推定は、医療や金融などの分野における意思決定の基本的な構成要素である。
本稿では,アテンションベースデコーダを用いて関節分布を推定する多元的手法を提案する。
本研究では,本モデルが実世界の複数のデータセットに対して最先端の予測を生成することを示す。
論文 参考訳(メタデータ) (2022-02-07T21:37:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。