論文の概要: R-Tuning: Wavelet-Decomposed Replay and Semantic Alignment for Continual Adaptation of Pretrained Time-Series Models
- arxiv url: http://arxiv.org/abs/2511.11685v1
- Date: Wed, 12 Nov 2025 08:32:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:22.989955
- Title: R-Tuning: Wavelet-Decomposed Replay and Semantic Alignment for Continual Adaptation of Pretrained Time-Series Models
- Title(参考訳): R-Tuning:予め訓練された時系列モデルの連続適応のためのウェーブレット分解再生とセマンティックアライメント
- Authors: Tianyi Yin, Jingwei Wang, Chenze Wang, Han Wang, Jiexuan Cai, Min Liu, Yunlong Ma, Kun Gao, Yuting Song, Weiming Shen,
- Abstract要約: Replay Tuning (R-Tuning) は、事前訓練された時系列モデルの継続的な適応のために設計された新しいフレームワークである。
R-Tuningは、周波数対応の再生戦略を通じて、前と現在のタスク知識の両方をキャプチャする統合潜在空間を構築する。
- 参考スコア(独自算出の注目度): 15.189716355297326
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pre-trained models have demonstrated exceptional generalization capabilities in time-series forecasting; however, adapting them to evolving data distributions remains a significant challenge. A key hurdle lies in accessing the original training data, as fine-tuning solely on new data often leads to catastrophic forgetting. To address this issue, we propose Replay Tuning (R-Tuning), a novel framework designed for the continual adaptation of pre-trained time-series models. R-Tuning constructs a unified latent space that captures both prior and current task knowledge through a frequency-aware replay strategy. Specifically, it augments model-generated samples via wavelet-based decomposition across multiple frequency bands, generating trend-preserving and fusion-enhanced variants to improve representation diversity and replay efficiency. To further reduce reliance on synthetic samples, R-Tuning introduces a latent consistency constraint that aligns new representations with the prior task space. This constraint guides joint optimization within a compact and semantically coherent latent space, ensuring robust knowledge retention and adaptation. Extensive experimental results demonstrate the superiority of R-Tuning, which reduces MAE and MSE by up to 46.9% and 46.8%, respectively, on new tasks, while preserving prior knowledge with gains of up to 5.7% and 6.0% on old tasks. Notably, under few-shot settings, R-Tuning outperforms all state-of-the-art baselines even when synthetic proxy samples account for only 5% of the new task dataset.
- Abstract(参考訳): 事前訓練されたモデルは時系列予測において例外的な一般化能力を示してきたが、それを進化するデータ分布に適応させることは依然として大きな課題である。
新しいデータのみを微調整することで、破滅的な忘れがちになることが多いからだ。
そこで本研究では,事前学習した時系列モデルの継続的適応を目的とした新しいフレームワークであるReplay Tuning(R-Tuning)を提案する。
R-Tuningは、周波数対応の再生戦略を通じて、前と現在のタスク知識の両方をキャプチャする統合潜在空間を構築する。
具体的には、複数の周波数帯域にわたるウェーブレットベースの分解によりモデル生成サンプルを増強し、トレンド保存および融合強化の変種を生成し、表現の多様性と再生効率を向上させる。
合成サンプルへの依存をさらに軽減するため、R-Tuningでは、新しい表現と以前のタスク空間との整合性制約を導入している。
この制約は、コンパクトでセマンティックに整合した潜在空間内の共同最適化を誘導し、堅牢な知識保持と適応を保証する。
R-Tuningは、新しいタスクでそれぞれ46.9%、MSEで46.8%、従来のタスクで最大5.7%、MSEで最大6.0%の事前知識を保っている。
特に、数ショット設定下では、R-Tuningは、新しいタスクデータセットのわずか5%を占める合成プロキシサンプルであっても、最先端のベースラインをすべて上回る。
関連論文リスト
- Automated Tuning for Diffusion Inverse Problem Solvers without Generative Prior Retraining [4.511561231517167]
拡散/スコアベースのモデルは、逆問題を解決するための強力な生成前駆体として現れてきた。
本稿では,任意のノイズスケジュールで忠実度重みを調整するテスト時間最適化手法であるZero-shot Adaptive Diffusion Smpling (ZADS)を提案する。
ZADSは、従来の圧縮センシングと最近の拡散ベースの手法の両方より一貫して優れている。
論文 参考訳(メタデータ) (2025-09-11T22:22:32Z) - TSPulse: Dual Space Tiny Pre-Trained Models for Rapid Time-Series Analysis [12.034816114258803]
TSPulseは、1Mパラメータしか持たない超コンパクトな時系列事前訓練モデルである。
分類、異常検出、インプット、検索タスクで強く機能する。
結果は100Mパラメータ(既存のSOTAモデルより10-100倍小さい)で達成される。
論文 参考訳(メタデータ) (2025-05-19T12:18:53Z) - ReAugment: Model Zoo-Guided RL for Few-Shot Time Series Augmentation and Forecasting [74.00765474305288]
本稿では,時系列データ拡張のための強化学習(RL)の試験的検討を行う。
我々の手法であるReAugmentは、トレーニングセットのどの部分が拡張されるべきか、どのように拡張を行うべきか、RLがプロセスにどのような利点をもたらすのか、という3つの重要な問題に取り組む。
論文 参考訳(メタデータ) (2024-09-10T07:34:19Z) - Towards Efficient Vision-Language Tuning: More Information Density, More Generalizability [73.34532767873785]
本稿では,行列が特定の特徴空間に強く属しているかを示すために,情報密度(ID)の概念を提案する。
Dense Information Prompt (DIP)を導入し、情報密度を高め、一般化を改善する。
DIPは、調整可能なパラメータの数と必要なストレージスペースを大幅に減らし、リソース制約のある設定で特に有利になる。
論文 参考訳(メタデータ) (2023-12-17T20:42:43Z) - Efficient Stitchable Task Adaptation [47.94819192325723]
そこで本研究では,高度調整型モデルのパレットを効率よく作成するための新しいフレームワークであるEfficient Stitchable Task Adaptation (ESTA)を提案する。
具体的には、縫合物間で低ランク更新を共有するために、パラメータ効率の高いファインチューニングを第1に調整する。
簡単なが効果的なワンステージデプロイメントパイプラインを合理化し、デプロイすべき重要な縫合を見積もる。
論文 参考訳(メタデータ) (2023-11-29T04:31:35Z) - Financial Time Series Data Augmentation with Generative Adversarial
Networks and Extended Intertemporal Return Plots [2.365537081046599]
データ拡張作業に最先端の画像ベース生成モデルを適用した。
時系列の新しい画像表現である拡張時空間回帰プロット(XIRP)を導入する。
提案手法は,金融データセットの79%に対して,リターン予測誤差を7%削減できることを示す。
論文 参考訳(メタデータ) (2022-05-18T13:39:27Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。