論文の概要: Meta-learning to Address Data Shift in Time Series Classification
- arxiv url: http://arxiv.org/abs/2601.09018v1
- Date: Tue, 13 Jan 2026 22:38:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-15 18:59:20.187385
- Title: Meta-learning to Address Data Shift in Time Series Classification
- Title(参考訳): 時系列分類におけるデータシフトに対応するメタラーニング
- Authors: Samuel Myren, Nidhi Parikh, Natalie Klein,
- Abstract要約: 従来のディープラーニング(TDL)モデルは、トレーニングとテストデータが同じ分布を共有する場合、うまく機能する。
実世界のデータのダイナミックな性質は、TDLモデルを高速な性能劣化を招き、コストのかかる緩和と非効率な再トレーニングを必要とする。
本稿では、TDLと微調整および最適化に基づくメタラーニングアルゴリズムを体系的に比較し、データシフトに対処する能力を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Across engineering and scientific domains, traditional deep learning (TDL) models perform well when training and test data share the same distribution. However, the dynamic nature of real-world data, broadly termed \textit{data shift}, renders TDL models prone to rapid performance degradation, requiring costly relabeling and inefficient retraining. Meta-learning, which enables models to adapt quickly to new data with few examples, offers a promising alternative for mitigating these challenges. Here, we systematically compare TDL with fine-tuning and optimization-based meta-learning algorithms to assess their ability to address data shift in time-series classification. We introduce a controlled, task-oriented seismic benchmark (SeisTask) and show that meta-learning typically achieves faster and more stable adaptation with reduced overfitting in data-scarce regimes and smaller model architectures. As data availability and model capacity increase, its advantages diminish, with TDL with fine-tuning performing comparably. Finally, we examine how task diversity influences meta-learning and find that alignment between training and test distributions, rather than diversity alone, drives performance gains. Overall, this work provides a systematic evaluation of when and why meta-learning outperforms TDL under data shift and contributes SeisTask as a benchmark for advancing adaptive learning research in time-series domains.
- Abstract(参考訳): 工学と科学の分野では、トレーニングとテストデータが同じ分布を共有する場合、従来のディープラーニング(TDL)モデルはうまく機能する。
しかし、現実世界のデータのダイナミックな性質は、広く「textit{data shift}」と呼ばれ、TDLモデルは高速な性能劣化を招き、コストのかかる緩和と非効率な再トレーニングを必要としている。
メタラーニングは、モデルがいくつかの例で新しいデータに迅速に適応できるようにするもので、これらの課題を緩和するための有望な代替手段を提供する。
本稿では、TDLと微調整および最適化に基づくメタラーニングアルゴリズムを体系的に比較し、時系列分類におけるデータシフトに対処する能力を評価する。
制御されたタスク指向型耐震ベンチマーク(SeisTask)を導入し、メタラーニングがデータスカースとより小さなモデルアーキテクチャのオーバーフィッティングを減らし、より高速でより安定した適応を実現することを示す。
データ可用性とモデルキャパシティが向上するにつれて、その利点は減少し、微調整性能のTDLが相容れない。
最後に,タスクの多様性がメタラーニングにどのように影響するかを検討した。
全体として、この研究は、メタラーニングがデータシフト下でTDLを上回った時期と理由を体系的に評価し、時系列領域における適応学習研究を進展させるベンチマークとしてSeesTaskに貢献する。
関連論文リスト
- Test-Time Meta-Adaptation with Self-Synthesis [0.0]
我々は,大規模言語モデルの自己適応を可能にするメタラーニングフレームワークであるMASSを紹介する。
MASSは、問題固有の合成トレーニングデータを生成し、下流のパフォーマンスに最適化された目標の自己更新を実行する。
数学的推論の実験は、MASSが効率的なデータ効率の試験時間適応をもたらすインスタンスごとのカリキュラムを合成することを学ぶことを示している。
論文 参考訳(メタデータ) (2026-03-03T21:16:18Z) - OATS: Online Data Augmentation for Time Series Foundation Models [49.1394215208561]
時系列基礎モデル(TSFM)は時間分析の強力なパラダイムであり、しばしばデータ品質を向上させるために合成データ拡張によって強化される。
OATS (Online Data Augmentation for Time Series Foundation Models) は、異なるトレーニング手順に合わせて合成データを生成する基本戦略である。
論文 参考訳(メタデータ) (2026-01-26T23:51:03Z) - Entropy-Guided Token Dropout: Training Autoregressive Language Models with Limited Domain Data [89.96277093034547]
本研究では,エントロピー誘導型トークンドロップアウト方式であるEntroDropを導入する。
本稿では,EntroDropが標準正規化ベースラインを一貫して上回り,拡張型マルチエポックトレーニングを通じて堅牢な性能を維持していることを示す。
論文 参考訳(メタデータ) (2025-12-29T12:35:51Z) - Efficient Long-Tail Learning in Latent Space by sampling Synthetic Data [1.9290392443571385]
不均衡な分類データセットは、機械学習に重大な課題をもたらす。
本稿では,視覚基礎モデルのリッチなセマンティック潜在空間を利用して合成データを生成し,単純な線形分類器を訓練する新しいフレームワークを提案する。
提案手法は,CIFAR-100-LTベンチマークの最先端性を新たに設定し,Places-LTベンチマークで高い性能を示す。
論文 参考訳(メタデータ) (2025-09-19T10:52:31Z) - Middo: Model-Informed Dynamic Data Optimization for Enhanced LLM Fine-Tuning via Closed-Loop Learning [44.53583316198435]
Supervised Fine-Tuning (SFT) Large Language Modelsは高品質なトレーニングデータに依存している。
自己進化型モデル駆動動的データ最適化フレームワークであるMiddoを紹介した。
その結果,Middoはシードデータの品質を継続的に向上し,LLMの性能を平均7.15%向上させることができた。
論文 参考訳(メタデータ) (2025-08-29T12:47:27Z) - Towards Efficient and Effective Alignment of Large Language Models [7.853945494882636]
大規模言語モデル(LLM)は多様なタスクにまたがる優れた能力を示すが、それらを効率的かつ効果的に人間の期待に合わせることは重要な課題である。
この論文は、データ収集、トレーニング、評価において新しい方法論を導入することで、LCMアライメントを推し進める。
論文 参考訳(メタデータ) (2025-06-11T02:08:52Z) - Accelerating Large Language Model Pretraining via LFR Pedagogy: Learn, Focus, and Review [50.78587571704713]
Learn-Focus-Review(LFR)は、モデルの学習進捗に適応する動的トレーニングアプローチである。
LFRは、データブロック(トークンのシーケンス)にわたるモデルの学習パフォーマンスを追跡し、データセットの困難な領域を再検討する。
フルデータセットでトレーニングされたベースラインモデルと比較して、LFRは一貫して低いパープレキシティと高い精度を達成した。
論文 参考訳(メタデータ) (2024-09-10T00:59:18Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z) - Fast-Slow Test-Time Adaptation for Online Vision-and-Language Navigation [67.18144414660681]
オンラインビジョン・アンド・ランゲージナビゲーション(VLN)のためのFSTTA(Fast-Slow Test-Time Adaptation)アプローチを提案する。
提案手法は,4つのベンチマークにおいて顕著な性能向上を実現する。
論文 参考訳(メタデータ) (2023-11-22T07:47:39Z) - Task Aware Modulation using Representation Learning: An Approach for Few Shot Learning in Environmental Systems [15.40286222692196]
TAM-RLは異種システムにおける少数ショット学習のための新しいフレームワークである。
2つの実環境データセット上でのTAM-RLの評価を行った。
論文 参考訳(メタデータ) (2023-10-07T07:55:22Z) - Robust Learning with Progressive Data Expansion Against Spurious
Correlation [65.83104529677234]
本研究では,2層非線形畳み込みニューラルネットワークの学習過程について検討した。
分析の結果,不均衡なデータ群と学習容易なスプリアス特徴が学習過程におけるスプリアス特徴の優位性に繋がる可能性が示唆された。
本稿では,PDEと呼ばれる新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T05:44:06Z) - CAFA: Class-Aware Feature Alignment for Test-Time Adaptation [50.26963784271912]
テスト時間適応(TTA)は、テスト時にラベルのないデータにモデルを適応させることによって、この問題に対処することを目的としている。
本稿では,クラス認識特徴アライメント(CAFA, Class-Aware Feature Alignment)と呼ばれる単純な機能アライメント損失を提案する。
論文 参考訳(メタデータ) (2022-06-01T03:02:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。