論文の概要: Accurate Parameter-Efficient Test-Time Adaptation for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2506.23424v1
- Date: Sun, 29 Jun 2025 23:09:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-01 21:27:53.868969
- Title: Accurate Parameter-Efficient Test-Time Adaptation for Time Series Forecasting
- Title(参考訳): 時系列予測のための正確なパラメータ効率の良いテスト時間適応
- Authors: Heitor R. Medeiros, Hossein Sharifi-Noghabi, Gabriel L. Oliveira, Saghar Irandoust,
- Abstract要約: 実世界の時系列は、しばしば非定常的な性質を示し、事前訓練された予測モデルの性能を低下させる。
PETSAは,入力と出力の小さなキャリブレーションモジュールのみを更新することで,予測器をテスト時に適応させる手法である。
PETSAは低ランクのアダプタと動的ゲーティングを使用して、リトレーニングなしで表現を調整する。
- 参考スコア(独自算出の注目度): 2.688011048756518
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Real-world time series often exhibit a non-stationary nature, degrading the performance of pre-trained forecasting models. Test-Time Adaptation (TTA) addresses this by adjusting models during inference, but existing methods typically update the full model, increasing memory and compute costs. We propose PETSA, a parameter-efficient method that adapts forecasters at test time by only updating small calibration modules on the input and output. PETSA uses low-rank adapters and dynamic gating to adjust representations without retraining. To maintain accuracy despite limited adaptation capacity, we introduce a specialized loss combining three components: (1) a robust term, (2) a frequency-domain term to preserve periodicity, and (3) a patch-wise structural term for structural alignment. PETSA improves the adaptability of various forecasting backbones while requiring fewer parameters than baselines. Experimental results on benchmark datasets show that PETSA achieves competitive or better performance across all horizons. Our code is available at: https://github.com/BorealisAI/PETSA
- Abstract(参考訳): 実世界の時系列は、しばしば非定常的な性質を示し、事前訓練された予測モデルの性能を低下させる。
テスト時間適応(TTA)は、推論中にモデルを調整することでこの問題に対処するが、既存のメソッドは通常、完全なモデルを更新し、メモリと計算コストを増大させる。
本稿では,入力と出力の小さなキャリブレーションモジュールを更新するだけで,テスト時に予測値に適応するパラメータ効率の高いPETSAを提案する。
PETSAは低ランクのアダプタと動的ゲーティングを使用して、リトレーニングなしで表現を調整する。
適応能力に制限があるにもかかわらず精度を維持するために,(1)頑健な項,(2)周期性を維持する周波数領域,(3)構造的アライメントのためのパッチワイドな構造的用語の3つの要素を組み合わせた特殊な損失を導入する。
PETSAは様々な予測バックボーンの適応性を向上し、ベースラインよりも少ないパラメータを必要とする。
ベンチマークデータセットによる実験結果から,PETSAは全地平線上での競争力や性能向上を実現していることがわかった。
私たちのコードは、https://github.com/BorealisAI/PETSAで利用可能です。
関連論文リスト
- SMART-PC: Skeletal Model Adaptation for Robust Test-Time Training in Point Clouds [18.33878596057853]
テストタイムトレーニング(TTT)は,3Dポイントクラウド分類における分散シフトに対処する,有望なソリューションとして登場した。
SMART-PCは, 3次元点雲の幾何学的構造を活用することで, 破損に対するレジリエンスを高めるスケルトンベースのフレームワークである。
論文 参考訳(メタデータ) (2025-05-26T06:11:02Z) - APCoTTA: Continual Test-Time Adaptation for Semantic Segmentation of Airborne LiDAR Point Clouds [14.348191795901101]
空中レーザースキャン(ALS)ポイントクラウドセグメンテーションは、大規模3Dシーン理解の基本的な課題である。
Continuous Test-Time Adaptation (CTTA)は、ソース予測モデルを適用して、未ラベルのターゲットドメインを進化させるソリューションを提供する。
我々は,ALSポイントクラウドセマンティックセグメンテーションに適した最初のCTTA手法であるAPCoTTAを提案する。
論文 参考訳(メタデータ) (2025-05-15T05:21:16Z) - CANet: ChronoAdaptive Network for Enhanced Long-Term Time Series Forecasting under Non-Stationarity [0.0]
本稿では,スタイル転送技術に触発された新しいアーキテクチャであるChoronoAdaptive Network (CANet)を紹介する。
CANetの中核は非定常適応正規化モジュールであり、スタイルブレンディングゲートと適応インスタンス正規化(AdaIN)をシームレスに統合する。
実世界のデータセットに関する実験は、CANetが最先端の手法よりも優れていることを検証し、MSEの42%、MAEの22%を達成している。
論文 参考訳(メタデータ) (2025-04-24T20:05:33Z) - Faster Parameter-Efficient Tuning with Token Redundancy Reduction [38.47377525427411]
遅延効率チューニング(PET)は、少数のパラメータを学習することで、事前訓練された基礎モデルを下流タスクに転送することを目的としている。
PETは、訓練済みのモデル容量が指数関数的に増加するにも拘わらず、各タスクのストレージと転送コストを著しく削減する。
ほとんどのPET法は、大きなバックボーンモデルの推論を継承し、しばしば計算オーバーヘッドを増大させる。
論文 参考訳(メタデータ) (2025-03-26T07:15:08Z) - TTAQ: Towards Stable Post-training Quantization in Continuous Domain Adaptation [3.7024647541541014]
トレーニング後の量子化(PTQ)は、完全な精度のモデルを小さなキャリブレーションセット上で低ビット表現に量子化することで、ハードウェアの過大なコストを削減する。
従来のPTQメソッドは、動的で絶え間なく変化する現実世界のシナリオで失敗することが多い。
本稿では、従来のPTQの性能劣化に対処するため、TTAQと呼ばれるテスト時間適応のための新しい安定な量子化プロセスを提案する。
論文 参考訳(メタデータ) (2024-12-13T06:34:59Z) - ALoRE: Efficient Visual Adaptation via Aggregating Low Rank Experts [71.91042186338163]
ALoREは、Kroneckerによって構築された超複素パラメータ化空間をAggregate Low Rank Expertsに再利用する新しいPETL法である。
巧妙な設計のおかげで、ALoREは無視できる余分なパラメータを保持し、凍ったバックボーンに強制的にマージできる。
論文 参考訳(メタデータ) (2024-12-11T12:31:30Z) - Test-Time Model Adaptation with Only Forward Passes [68.11784295706995]
テストタイム適応は、トレーニング済みのモデルを、潜在的に分布シフトのある未確認テストサンプルに適応させるのに有効であることが証明されている。
テスト時間フォワード最適化適応法(FOA)を提案する。
FOAは量子化された8ビットのViTで動作し、32ビットのViTで勾配ベースのTENTより優れ、ImageNet-Cで最大24倍のメモリ削減を実現する。
論文 参考訳(メタデータ) (2024-04-02T05:34:33Z) - Towards Real-World Test-Time Adaptation: Tri-Net Self-Training with Balanced Normalization [46.30241353155658]
既存の研究は、非I.d.データストリームと連続的なドメインシフトの下での実際のテスト時間適応を主に検討している。
我々は、最先端の手法の失敗は、まず不均衡なテストデータに正規化層を無差別に適応させることによって生じると論じる。
TRIBEと呼ばれる最後のTTAモデルは、バランスの取れたバッチノーム層を持つトリネットアーキテクチャ上に構築されている。
論文 参考訳(メタデータ) (2023-09-26T14:06:26Z) - A Unified Continual Learning Framework with General Parameter-Efficient
Tuning [56.250772378174446]
「事前学習$rightarrow$ダウンストリーム適応」は、継続学習の新しい機会と課題を提示する。
我々は,PETの1つのインスタンス化としてプロンプトを位置づけ,ラーニング・アキュミュレーション・アンサンブル(LAE)と呼ばれる統一的なCLフレームワークを提案する。
PET(Adapter、LoRA、Prefixなど)は、トレーニング済みのモデルをより少ないパラメータとリソースで下流のタスクに適応させることができる。
論文 参考訳(メタデータ) (2023-03-17T15:52:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。