論文の概要: Lightweight Time Series Data Valuation on Time Series Foundation Models via In-Context Finetuning
- arxiv url: http://arxiv.org/abs/2511.11648v1
- Date: Mon, 10 Nov 2025 13:06:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:22.789118
- Title: Lightweight Time Series Data Valuation on Time Series Foundation Models via In-Context Finetuning
- Title(参考訳): インコンテキストファインタニングによる時系列基礎モデルの軽量時系列データ評価
- Authors: Shunyu Wu, Tianyue Li, Yixuan Leng, Jingyi Suo, Jian Lou, Dan Li, See-Kiong Ng,
- Abstract要約: 時系列基礎モデル (TSFM) は,多種多様な時系列データに事前訓練を施すことにより,その能力の向上を実証している。
本稿では, TSFMS 上での軽量時系列評価であるLTSV を提案する。
LTSVは、管理可能な計算要求を維持しつつ、信頼性と高い評価性能を一貫して提供することを示す。
- 参考スコア(独自算出の注目度): 40.495409835752746
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Time series foundation models (TSFMs) have demonstrated increasing capabilities due to their extensive pretraining on large volumes of diverse time series data. Consequently, the quality of time series data is crucial to TSFM performance, rendering an accurate and efficient data valuation of time series for TSFMs indispensable. However, traditional data valuation methods, such as influence functions, face severe computational bottlenecks due to their poor scalability with growing TSFM model sizes and often fail to preserve temporal dependencies. In this paper, we propose LTSV, a Lightweight Time Series Valuation on TSFMS via in-context finetuning. Grounded in the theoretical evidence that in-context finetuning approximates the influence function, LTSV estimates a sample's contribution by measuring the change in context loss after in-context finetuning, leveraging the strong generalization capabilities of TSFMs to produce robust and transferable data valuations. To capture temporal dependencies, we introduce temporal block aggregation, which integrates per-block influence scores across overlapping time windows. Experiments across multiple time series datasets and models demonstrate that LTSV consistently provides reliable and strong valuation performance, while maintaining manageable computational requirements. Our results suggest that in-context finetuning on time series foundation models provides a practical and effective bridge between data attribution and model generalization in time series learning.
- Abstract(参考訳): 時系列基礎モデル (TSFM) は,多種多様な時系列データに事前訓練を施すことにより,その能力の向上を実証している。
したがって、時系列データの品質は、TSFMの性能に不可欠であり、TSFMの時系列データの正確かつ効率的な評価が不可欠である。
しかし、影響関数のような従来のデータ評価手法は、TSFMモデルのサイズが大きくなるとスケーラビリティが低下し、時間的依存を保たないため、深刻な計算ボトルネックに直面している。
本稿では,TSFMS上でのテキスト内微調整による軽量時系列評価であるLTSVを提案する。
インコンテキスト微調整が影響関数を近似する理論的な証拠に基づいて、LTSVは、インコンテキスト微調整後のコンテキスト損失の変化を測定し、TSFMの強い一般化能力を活用して、堅牢で転送可能なデータバリュエーションを生成することで、サンプルの寄与を推定する。
時間的依存を捉えるために、時間的ブロックアグリゲーションを導入し、重なり合う時間ウィンドウ間でブロックごとの影響スコアを統合する。
複数の時系列データセットとモデルにわたる実験により、LTSVは、管理可能な計算要求を維持しながら、信頼性と強力な評価性能を一貫して提供することを示した。
この結果から,時系列学習におけるデータ帰属とモデル一般化の実践的かつ効果的な橋渡しを,時系列基礎モデルを用いた文脈内ファインタニングにより実現できることが示唆された。
関連論文リスト
- A Unified Frequency Domain Decomposition Framework for Interpretable and Robust Time Series Forecasting [81.73338008264115]
時系列予測の現在のアプローチは、時間領域であれ周波数領域であれ、主に線形層やトランスフォーマーに基づいたディープラーニングモデルを使用する。
本稿では,多種多様な時系列を数学的に抽象化する統合周波数領域分解フレームワークFIREを提案する。
火は長期予測ベンチマークで最先端のモデルを一貫して上回る。
論文 参考訳(メタデータ) (2025-10-11T09:59:25Z) - Estimating Time Series Foundation Model Transferability via In-Context Learning [74.65355820906355]
時系列基礎モデル(TSFM)は、大規模な事前訓練を通じて強力なゼロショット予測を提供する。
微調整は、公開データに制限のあるドメインのパフォーマンス向上に依然として不可欠である。
モデル選択をコンテキスト内学習問題として再キャストする転送可能性推定フレームワークであるTimeTicを紹介する。
論文 参考訳(メタデータ) (2025-09-28T07:07:13Z) - Evaluating Time Series Foundation Models on Noisy Periodic Time Series [0.0]
本稿では,雑音周期時系列を構成する2つのデータセットに対して,時系列基礎モデル(TSFM)の性能を評価する実験的検討を行った。
以上の結果から, TSFMは, 周期が制限された時系列に対して, より長い時間, 高い雑音レベル, サンプリング率, より複雑な時系列形状で予測能力が低下することが示唆された。
論文 参考訳(メタデータ) (2025-01-01T16:36:21Z) - Test Time Learning for Time Series Forecasting [1.4605709124065924]
テストタイムトレーニング(TTT)モジュールは、MambaベースのTimeMachineなど、最先端モデルよりも一貫して優れている。
その結果,平均二乗誤差 (MSE) と平均絶対誤差 (MAE) に有意な改善が認められた。
この研究は、時系列予測の新しいベンチマークを設定し、スケーラブルで高性能な予測モデルにおける将来の研究の基礎を定めている。
論文 参考訳(メタデータ) (2024-09-21T04:40:08Z) - ViTime: Foundation Model for Time Series Forecasting Powered by Vision Intelligence [49.60944381032587]
時系列予測(TSF)は、電力やエネルギー、輸送など、様々な分野で大きな実践的価値を持っている。
TSFモデルは長年、問題固有であり、アプリケーションの一般化性に欠けることが知られている。
本稿では,視覚情報を利用したViTimeフレームワークを初めて提案する。
論文 参考訳(メタデータ) (2024-07-10T02:11:01Z) - Grouped self-attention mechanism for a memory-efficient Transformer [64.0125322353281]
天気予報、電力消費、株式市場などの現実世界のタスクには、時間とともに変化するデータの予測が含まれる。
時系列データは通常、その周期的特性と時間的長期依存性のために、長いシーケンスで長い観察期間にわたって記録される。
我々はGSA(Grouped Self-Attention)とCCA(Compressed Cross-Attention)の2つの新しいモジュールを提案する。
提案モデルでは,既存の手法に匹敵する計算量と性能の低減が効果的に示された。
論文 参考訳(メタデータ) (2022-10-02T06:58:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。