論文の概要: DeepBooTS: Dual-Stream Residual Boosting for Drift-Resilient Time-Series Forecasting
- arxiv url: http://arxiv.org/abs/2511.06893v1
- Date: Mon, 10 Nov 2025 09:43:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.185861
- Title: DeepBooTS: Dual-Stream Residual Boosting for Drift-Resilient Time-Series Forecasting
- Title(参考訳): DeepBooTS:Drift-Resilient Time-Series ForecastingのためのDual-Stream Residual Boosting
- Authors: Daojun Liang, Jing Chen, Xiao Wang, Yinglong Wang, Suo Li,
- Abstract要約: 時系列(TS)は非定常性を示す。
ほとんどの予測手法は、コンセプトドリフトに対する頑丈さを損なう。
DeepBooTSは、新しいエンドツーエンドの2ストリーム残差低減法である。
- 参考スコア(独自算出の注目度): 12.489768316110798
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Time-Series (TS) exhibits pronounced non-stationarity. Consequently, most forecasting methods display compromised robustness to concept drift, despite the prevalent application of instance normalization. We tackle this challenge by first analysing concept drift through a bias-variance lens and proving that weighted ensemble reduces variance without increasing bias. These insights motivate DeepBooTS, a novel end-to-end dual-stream residual-decreasing boosting method that progressively reconstructs the intrinsic signal. In our design, each block of a deep model becomes an ensemble of learners with an auxiliary output branch forming a highway to the final prediction. The block-wise outputs correct the residuals of previous blocks, leading to a learning-driven decomposition of both inputs and targets. This method enhances versatility and interpretability while substantially improving robustness to concept drift. Extensive experiments, including those on large-scale datasets, show that the proposed method outperforms existing methods by a large margin, yielding an average performance improvement of 15.8% across various datasets, establishing a new benchmark for TS forecasting.
- Abstract(参考訳): 時系列(TS)は非定常性を示す。
その結果、ほとんどの予測手法は、インスタンスの正規化が広く適用されているにもかかわらず、概念のドリフトに対する堅牢性を損なうことを示した。
我々は、まずバイアス分散レンズを通してコンセプトドリフトを分析し、重み付けアンサンブルがバイアスを増大させることなくばらつきを減少させることによって、この問題に対処する。
これらの知見がDeepBooTSを動機付けている。DeepBooTSは、本質的なシグナルを段階的に再構築する、新しいエンドツーエンドの2ストリーム残差低減法である。
本設計では,深層モデルの各ブロックが,最終予測のためにハイウェイを形成する補助出力分岐を持つ学習者の集まりとなる。
ブロックワイズ出力は以前のブロックの残差を補正し、入力とターゲットの両方を学習駆動で分解する。
この方法は、コンセプトドリフトに対するロバスト性を大幅に改善しつつ、汎用性と解釈性を向上させる。
大規模なデータセットを含む大規模な実験により、提案手法は既存の手法を大きなマージンで上回り、様々なデータセットの平均性能は15.8%向上し、TS予測のための新しいベンチマークが確立された。
関連論文リスト
- ResAD: Normalized Residual Trajectory Modeling for End-to-End Autonomous Driving [64.42138266293202]
ResADは正規化された残留軌道モデリングフレームワークである。
学習タスクを再編成し、慣性参照からの残留偏差を予測する。
NAVSIMベンチマークでは、ResADはバニラ拡散ポリシーを用いて最先端のPDMS 88.6を達成している。
論文 参考訳(メタデータ) (2025-10-09T17:59:36Z) - Advancing Reliable Test-Time Adaptation of Vision-Language Models under Visual Variations [67.35596444651037]
視覚言語モデル(VLM)は、素晴らしいゼロショット機能を示すが、ラベル付きデータが利用できない場合、下流タスクの分散シフトに苦慮する。
本稿では,信頼性を両面から高めるReliable Test-Time Adaptation (ReTA)法を提案する。
論文 参考訳(メタデータ) (2025-07-13T05:37:33Z) - Rolling with the Punches: Resilient Contrastive Pre-training under Non-Stationary Drift [16.97188816362991]
重要な課題は、動的データストリーム上のモデルの効果的な事前トレーニングである。
まず、従来の対照的な事前学習手法が、概念のドリフトに対して特に脆弱であることを明らかにする。
本稿では,因果的介入を取り入れた新しい手法であるResilient Contrastive Pre-training (RCP)を提案する。
論文 参考訳(メタデータ) (2025-02-11T15:09:05Z) - Minusformer: Improving Time Series Forecasting by Progressively Learning Residuals [14.741951369068877]
ユビキタス時系列(TS)予測モデルでは,過度なオーバーフィッティングが生じる傾向にある。
本稿では,深層的なブースティング・アンサンブル学習手法である二重ストリーム・サブトラクション機構を提案する。
提案手法は既存の最先端手法よりも優れており,各データセットの平均性能は11.9%向上した。
論文 参考訳(メタデータ) (2024-02-04T03:54:31Z) - Supervised Contrastive Learning based Dual-Mixer Model for Remaining
Useful Life Prediction [3.081898819471624]
Remaining Useful Life (RUL)予測は、現在の予測モーメントからデバイスの完全な障害までの残時間を正確に見積もることを目的としている。
従来のRUL予測手法における時間的特徴と空間的特徴の厳密結合の欠点を克服するため,Dual-Mixerモデルと呼ばれる空間的時間的特徴抽出器を提案する。
提案手法の有効性は,C-MAPSSデータセットに関する他の最新の研究結果との比較により検証した。
論文 参考訳(メタデータ) (2024-01-29T14:38:44Z) - Training Discrete Deep Generative Models via Gapped Straight-Through
Estimator [72.71398034617607]
再サンプリングのオーバーヘッドを伴わずに分散を低減するため, GST (Gapped Straight-Through) 推定器を提案する。
この推定子は、Straight-Through Gumbel-Softmaxの本質的な性質に着想を得たものである。
実験により,提案したGST推定器は,2つの離散的な深部生成モデリングタスクの強いベースラインと比較して,優れた性能を享受できることが示された。
論文 参考訳(メタデータ) (2022-06-15T01:46:05Z) - Regularizing Variational Autoencoder with Diversity and Uncertainty
Awareness [61.827054365139645]
変分オートエンコーダ(VAE)は、償却変分推論に基づいて潜伏変数の後部を近似する。
よりディバースで不確実な潜在空間を学習するための代替モデルDU-VAEを提案する。
論文 参考訳(メタデータ) (2021-10-24T07:58:13Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。