論文の概要: Adapt Data to Model: Adaptive Transformation Optimization for Domain-shared Time Series Foundation Models
- arxiv url: http://arxiv.org/abs/2603.00629v1
- Date: Sat, 28 Feb 2026 12:45:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.300278
- Title: Adapt Data to Model: Adaptive Transformation Optimization for Domain-shared Time Series Foundation Models
- Title(参考訳): モデルへの適応データ:ドメイン共有時系列基礎モデルの適応変換最適化
- Authors: Yunzhong Qiu, Zhiyao Cen, Zhongyi Pei, Chen Wang, Jianmin Wang,
- Abstract要約: 大規模時系列モデル(LTM)は、普遍的な予測のための強力なツールとして登場したが、実世界のデータ固有の多様性と非定常性に苦しむことが多い。
本稿では,データ中心のフレームワークである時系列適応変換最適化(TATO)を提案する。
最先端のLTMと広く使用されているデータセットの実験により、TATOは一貫して、ドメイン適応予測性能を大幅に改善することが示された。
- 参考スコア(独自算出の注目度): 13.127670483066227
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large time series models (LTMs) have emerged as powerful tools for universal forecasting, yet they often struggle with the inherent diversity and nonstationarity of real-world time series data, leading to an unsatisfactory trade-off between forecasting accuracy and generalization. Rather than continually finetuning new LTM instances for each domain, we propose a data-centric framework, time-series adaptive transformation optimization (TATO), that enables a single frozen pre-trained LTM to adapt to diverse downstream domains through an optimally configured transformation pipeline. Specifically, TATO constructs three representative types of transformations, including context slicing, scale normalization, and outlier correction, to help LTMs better align with target domain characteristics. To ensure robustness, we incorporate carefully selected time series augmentations and a two-stage ranking mechanism that filters out pipelines underperforming on specific metrics. Extensive experiments on state-of-the-art LTMs and widely used datasets demonstrate that TATO consistently and significantly improves domain-adaptive forecasting performance, achieving a maximum reduction in MSE of 65.4\% and an average reduction of 13.6\%. Moreover, TATO is highly efficient, typically completing optimization in under 2 minutes, making it practical for real-world deployment. The source code is available at https://github.com/thulab/TATO.
- Abstract(参考訳): 大時系列モデル(LTM)は、普遍的な予測のための強力なツールとして登場したが、実世界の時系列データの本質的な多様性と非定常性に苦しむことが多く、予測精度と一般化の間には不満足なトレードオフが生じる。
各ドメインに対して新たなLTMインスタンスを継続的に微調整するのではなく,データ中心のフレームワークであるTATO(Time-Series Adaptive Transformation Optimization)を提案する。
具体的には、TATOは、コンテキストスライシング、スケール正規化、外乱補正を含む3つの代表的な変換タイプを構築し、LTMが対象のドメイン特性とよりよく整合するのに役立つ。
堅牢性を確保するため、慎重に選択された時系列拡張と、特定のメトリクスで不足するパイプラインをフィルタリングする2段階のランキング機構を組み込んだ。
最先端のLTMと広く使われているデータセットに関する大規模な実験により、TATOは一貫して、ドメイン適応予測性能を著しく改善し、MSEの最大65.4\%、平均13.6\%を達成している。
さらに、TATOは非常に効率的で、通常は2分以内で最適化を完了し、現実のデプロイメントに実用的である。
ソースコードはhttps://github.com/thulab/TATOで公開されている。
関連論文リスト
- FOZO: Forward-Only Zeroth-Order Prompt Optimization for Test-Time Adaptation [9.28697795097814]
ディープラーニングモデルが現実のデータ分散シフトを処理するために、テスト時間適応は不可欠である。
バックプロパゲーションベースのメソッドは、ローエンドのデプロイメントデバイスには適していない。
本稿では,TTAの新規かつ実用的なバックプロパゲーションフリーパラダイムであるフォワード・オン・ゼロ階最適化(FOZO)を提案する。
論文 参考訳(メタデータ) (2026-03-05T02:12:48Z) - MEMTS: Internalizing Domain Knowledge via Parameterized Memory for Retrieval-Free Domain Adaptation of Time Series Foundation Models [51.506429027626005]
Memory for Time Series (MEMTS) は、時系列予測における検索不要領域適応のための軽量かつプラグアンドプレイ方式である。
MEMTSの鍵となるコンポーネントは知識永続化モジュール(KPM)であり、ドメイン固有の時間力学を内部化する。
このパラダイムシフトにより、MEMTSは定数時間推論とニアゼロレイテンシによる正確なドメイン適応を実現することができる。
論文 参考訳(メタデータ) (2026-02-14T14:00:06Z) - Scaling Up Temporal Domain Generalization via Temporal Experts Averaging [108.44248708602221]
時間領域の一般化は、時間的変化などの時間的分布シフトを一般化することを目的としている。
本稿では, 時間的エキスパート平均化(TEA)を提案する。これは, 一般化ポテンシャルを最大化するために, 重量平均化を用いてモデル全体を更新する, 新しくスケーラブルなTDGフレームワークである。
従来のTDG法では最大69%,効率は最大60倍であった。
論文 参考訳(メタデータ) (2025-09-30T10:21:44Z) - Data Mixing Optimization for Supervised Fine-Tuning of Large Language Models [5.626695215498112]
最適化問題としてデータミキシングを枠組み化し,検証損失を最小限に抑える新しい手法を提案する。
提案手法は, 効率的なデータ転送をモデル化し, スケール法則を微調整に活用することにより, 損失をパラメタライズする。
提案アルゴリズムは,全領域にわたる総合的,個人的パフォーマンスに優れることを示す。
論文 参考訳(メタデータ) (2025-08-16T07:28:39Z) - DONOD: Efficient and Generalizable Instruction Fine-Tuning for LLMs via Model-Intrinsic Dataset Pruning [22.704995231753397]
大規模言語モデル(LLM)のアドホック命令の微調整は、ドメイン固有の適応に広く採用されている。
本研究では,軽量なモデル固有データ解析手法であるDONODを提案する。
データセット全体の70%をフィルタリングすることで、ターゲットドメインの精度を14.90%、クロスドメインの精度を5.67%向上させる。
論文 参考訳(メタデータ) (2025-04-21T02:25:03Z) - Gradient Correction in Federated Learning with Adaptive Optimization [19.93709245766609]
クライアント-ドリフト補償を適応最適化に組み込む最初のアルゴリズムである tt FAdamGC を提案する。
tt FAdamGCは、様々なレベルのデータの通信とコストにおいて、既存の手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2025-02-04T21:21:30Z) - Towards Generalizable Trajectory Prediction Using Dual-Level Representation Learning And Adaptive Prompting [107.4034346788744]
既存の車両軌道予測モデルは、一般化可能性、予測の不確実性、複雑な相互作用を扱う。
本研究では,(1)自己拡張(SD)とマスドレコンストラクション(MR)による二重レベル表現学習,グローバルコンテキストと細部の詳細の収集,(2)レジスタベースのクエリと事前学習の強化,クラスタリングと抑圧の必要性の排除,(3)微調整中の適応型プロンプトチューニング,メインアーキテクチャの凍結,および少数のプロンプトの最適化といった,新たなトラジェクタ予測フレームワークであるPerceiverを提案する。
論文 参考訳(メタデータ) (2025-01-08T20:11:09Z) - ALoRE: Efficient Visual Adaptation via Aggregating Low Rank Experts [71.91042186338163]
ALoREは、Kroneckerによって構築された超複素パラメータ化空間をAggregate Low Rank Expertsに再利用する新しいPETL法である。
巧妙な設計のおかげで、ALoREは無視できる余分なパラメータを保持し、凍ったバックボーンに強制的にマージできる。
論文 参考訳(メタデータ) (2024-12-11T12:31:30Z) - TOAST: Transformer Optimization using Adaptive and Simple Transformations [40.311292704886235]
ToASTは,全トランスバータブロックを軽量なクローズドフォームマッピングで近似する冗長性を利用するフレームワークである。
その結果,変圧器の深さの大部分は自明な関数に置き換えられ,効率的な基礎モデルに対する新たな視点が開かれた。
論文 参考訳(メタデータ) (2024-10-07T11:35:24Z) - Task-level Distributionally Robust Optimization for Large Language Model-based Dense Retrieval [32.104911827710936]
本稿では,大規模言語モデルに基づくDense Retrievalファインタニングのためのタスクレベル分散ロバスト最適化(tDRO)を提案する。
tDROはドメインの重みをパラメータ化し、拡張されたドメイン勾配で更新する。
実験では、大規模検索ベンチマークの最適改善と、最大30%のデータセット使用率の削減が示されている。
論文 参考訳(メタデータ) (2024-08-20T07:48:19Z) - AutoScale: Scale-Aware Data Mixing for Pre-Training LLMs [59.12061830645018]
より小さなスケールで良好に機能するデータ混合物は、大規模なスケールではその利点を保たない可能性があることを示す。
2段階のスケール対応データ合成フレームワークであるAutoScaleを提案する。
論文 参考訳(メタデータ) (2024-07-29T17:06:30Z) - Visual Prompt Tuning for Test-time Domain Adaptation [48.16620171809511]
本稿では,2つの重要な要素を持つデータ効率・プロンプト・チューニング(DePT)と呼ばれる簡単なレシピを提案する。
このようなパラメータ効率の良い微調整は,学習対象の雑音に過度に適応することなく,モデル表現を対象領域に効率よく適応させることができる。
パラメータがはるかに少ないため、DePTは主要な適応ベンチマークにおける最先端のパフォーマンスだけでなく、優れたデータ効率を示す。
論文 参考訳(メタデータ) (2022-10-10T16:45:13Z) - FAMLP: A Frequency-Aware MLP-Like Architecture For Domain Generalization [73.41395947275473]
本稿では、変換周波数領域において、ドメイン固有の特徴をフィルタリングする新しい周波数認識アーキテクチャを提案する。
3つのベンチマークの実験では、最先端の手法をそれぞれ3%、4%、9%のマージンで上回った。
論文 参考訳(メタデータ) (2022-03-24T07:26:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。