論文の概要: DropoutTS: Sample-Adaptive Dropout for Robust Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2601.21726v1
- Date: Thu, 29 Jan 2026 13:49:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-30 16:22:49.867233
- Title: DropoutTS: Sample-Adaptive Dropout for Robust Time Series Forecasting
- Title(参考訳): DropoutTS:ロバストな時系列予測のためのサンプル適応型ドロップアウト
- Authors: Siru Zhong, Yiqiu Liu, Zhiqing Cui, Zezhi Shao, Fei Wang, Qingsong Wen, Yuxuan Liang,
- Abstract要約: DropoutTS はモデルに依存しないプラグインで、パラダイムを "What" から "How much" にシフトします。
ノイズを適応的なドロップアウト率にマッピングする - きめ細かい忠実さを維持しながら、急激な変動を選択的に抑制する。
- 参考スコア(独自算出の注目度): 59.868414584142336
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep time series models are vulnerable to noisy data ubiquitous in real-world applications. Existing robustness strategies either prune data or rely on costly prior quantification, failing to balance effectiveness and efficiency. In this paper, we introduce DropoutTS, a model-agnostic plugin that shifts the paradigm from "what" to learn to "how much" to learn. DropoutTS employs a Sample-Adaptive Dropout mechanism: leveraging spectral sparsity to efficiently quantify instance-level noise via reconstruction residuals, it dynamically calibrates model learning capacity by mapping noise to adaptive dropout rates - selectively suppressing spurious fluctuations while preserving fine-grained fidelity. Extensive experiments across diverse noise regimes and open benchmarks show DropoutTS consistently boosts superior backbones' performance, delivering advanced robustness with negligible parameter overhead and no architectural modifications. Our code is available at https://github.com/CityMind-Lab/DropoutTS.
- Abstract(参考訳): ディープ時系列モデルは、現実世界のアプリケーションでユビキタスなデータに対して脆弱である。
既存のロバストネス戦略は、データのプルーン化やコストのかかる事前定量化に依存しており、効率性と効率性のバランスが取れていない。
本稿では,モデルに依存しないプラグインであるDropoutTSを紹介する。
DropoutTSにはサンプル適応型ドロップアウト機構がある: スペクトル空間を利用して再構成残差によるインスタンスレベルのノイズを効率的に定量化し、ノイズを適応的なドロップアウト率にマッピングすることで、モデル学習能力を動的に校正する。
様々なノイズレシエーションとオープンベンチマークにわたる大規模な実験は、DropoutTSが常に優れたバックボーンのパフォーマンスを向上し、無視可能なパラメータオーバーヘッドとアーキテクチャ上の変更のない高度な堅牢性を提供することを示している。
私たちのコードはhttps://github.com/CityMind-Lab/DropoutTS.comで利用可能です。
関連論文リスト
- Entropy-Guided Token Dropout: Training Autoregressive Language Models with Limited Domain Data [89.96277093034547]
本研究では,エントロピー誘導型トークンドロップアウト方式であるEntroDropを導入する。
本稿では,EntroDropが標準正規化ベースラインを一貫して上回り,拡張型マルチエポックトレーニングを通じて堅牢な性能を維持していることを示す。
論文 参考訳(メタデータ) (2025-12-29T12:35:51Z) - Handling Label Noise via Instance-Level Difficulty Modeling and Dynamic Optimization [40.87754131017707]
ディープニューラルネットワークは、ノイズの多い監視の下で一般化性能が低下する。
既存のメソッドでは、クリーンなサブセットの分離やノイズのあるラベルの修正に重点を置いている。
本稿では,インスタンスレベルの最適化が可能な新しい2段階雑音学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-01T19:12:58Z) - CANet: ChronoAdaptive Network for Enhanced Long-Term Time Series Forecasting under Non-Stationarity [0.0]
本稿では,スタイル転送技術に触発された新しいアーキテクチャであるChoronoAdaptive Network (CANet)を紹介する。
CANetの中核は非定常適応正規化モジュールであり、スタイルブレンディングゲートと適応インスタンス正規化(AdaIN)をシームレスに統合する。
実世界のデータセットに関する実験は、CANetが最先端の手法よりも優れていることを検証し、MSEの42%、MAEの22%を達成している。
論文 参考訳(メタデータ) (2025-04-24T20:05:33Z) - Foster Adaptivity and Balance in Learning with Noisy Labels [26.309508654960354]
我々はtextbfSelf-adaptivtextbfE とクラスバランスtextbfD 方式でラベルノイズに対処するための textbfSED という新しい手法を提案する。
平均教師モデルは、ノイズの多いサンプルのラベルを修正するために使用される。
また,検出した雑音に異なる重みを割り当てる自己適応型およびクラスバランスのサンプル再重み付け機構を提案する。
論文 参考訳(メタデータ) (2024-07-03T03:10:24Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Advanced Dropout: A Model-free Methodology for Bayesian Dropout
Optimization [62.8384110757689]
ディープニューラルネットワーク(DNN)の現実的応用において、ユビキタスなオーバーフィッティングが存在する
先進的なドロップアウト手法は、パラメトリック先行でモデルフリーで容易に実装された分布を適用し、ドロップアウト率を適応的に調整する。
7つのコンピュータビジョンデータセットにおける9つのドロップアウト手法に対する高度なドロップアウトの有効性を評価する。
論文 参考訳(メタデータ) (2020-10-11T13:19:58Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z) - Learnable Bernoulli Dropout for Bayesian Deep Learning [53.79615543862426]
Learnable Bernoulli Dropout (LBD) は、他のモデルパラメータと共に最適化されたパラメータとしてドロップアウト率を考慮する新しいモデルに依存しないドロップアウトスキームである。
LBDは画像分類とセマンティックセグメンテーションにおける精度と不確実性の推定を改善する。
論文 参考訳(メタデータ) (2020-02-12T18:57:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。