論文の概要: Deep Imbalanced Time-series Forecasting via Local Discrepancy Density
- arxiv url: http://arxiv.org/abs/2302.13563v2
- Date: Fri, 22 Sep 2023 14:21:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-25 19:26:53.576379
- Title: Deep Imbalanced Time-series Forecasting via Local Discrepancy Density
- Title(参考訳): 局所差分密度を用いた深部不均衡時系列予測
- Authors: Junwoo Park, Jungsoo Lee, Youngin Cho, Woncheol Shin, Dongmin Kim,
Jaegul Choo, Edward Choi
- Abstract要約: 本稿では, 急激な変化による損失の軽減と, 正常な状態による損失のアップ重み付けを行う再重み付けフレームワークを提案する。
我々は、我々の再重み付けフレームワークを適用することで、MSEを平均で10.1%減らし、最先端モデルで最大18.6%減らすことを示した。
- 参考スコア(独自算出の注目度): 45.17779967536991
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Time-series forecasting models often encounter abrupt changes in a given
period of time which generally occur due to unexpected or unknown events.
Despite their scarce occurrences in the training set, abrupt changes incur loss
that significantly contributes to the total loss. Therefore, they act as noisy
training samples and prevent the model from learning generalizable patterns,
namely the normal states. Based on our findings, we propose a reweighting
framework that down-weights the losses incurred by abrupt changes and
up-weights those by normal states. For the reweighting framework, we first
define a measurement termed Local Discrepancy (LD) which measures the degree of
abruptness of a change in a given period of time. Since a training set is
mostly composed of normal states, we then consider how frequently the temporal
changes appear in the training set based on LD. Our reweighting framework is
applicable to existing time-series forecasting models regardless of the
architectures. Through extensive experiments on 12 time-series forecasting
models over eight datasets with various in-output sequence lengths, we
demonstrate that applying our reweighting framework reduces MSE by 10.1% on
average and by up to 18.6% in the state-of-the-art model.
- Abstract(参考訳): 時系列予測モデルは、通常予期せぬ出来事や未知の出来事によって起こる特定の時間内に突然の変化に遭遇することが多い。
トレーニングセットで発生頻度が低かったにもかかわらず、突然の損失の増加は全体の損失に大きく寄与する。
そのため、ノイズの多いトレーニングサンプルとして動作し、モデルが一般化可能なパターン、すなわち通常の状態を学ぶのを防ぐ。
本研究は, 急激な変化による損失の軽減と, 正常な状態による過度化を両立させる再重み付けフレームワークを提案する。
再重み付けフレームワークでは,まず,所定時間における変化の急激度を測定する局所離散度(LD)と呼ばれる測定値を定義する。
トレーニングセットは主に通常の状態で構成されているため、LDに基づいてトレーニングセットに時間的変化が出現する頻度を考慮する。
我々の再重み付けフレームワークは、アーキテクチャに関係なく、既存の時系列予測モデルに適用できる。
様々なインアウトプットシーケンス長を持つ8つのデータセット上での12の時系列予測モデルに関する広範な実験を通じて、我々の再重み付けフレームワークの適用は、平均で10.1%、最先端モデルでは18.6%削減することを示した。
関連論文リスト
- Training and Evaluating Causal Forecasting Models for Time-Series [1.1218431616419589]
統計的学習フレームワークを拡張して、トレーニング分布外の行動の効果を予測する際に、より一般化した因果的時系列モデルをトレーニングする。
我々は、経済で人気のある回帰不連続デザインを活用して、因果治療効果のテストセットを構築します。
論文 参考訳(メタデータ) (2024-10-31T18:27:54Z) - Data Attribution for Diffusion Models: Timestep-induced Bias in Influence Estimation [53.27596811146316]
拡散モデルは、以前の文脈における瞬間的な入出力関係ではなく、一連のタイムステップで操作する。
本稿では、この時間的ダイナミクスを取り入れた拡散トラクInについて、サンプルの損失勾配ノルムが時間ステップに大きく依存していることを確認する。
そこで我々はDiffusion-ReTracを再正規化適応として導入し、興味のあるサンプルを対象にしたトレーニングサンプルの検索を可能にする。
論文 参考訳(メタデータ) (2024-01-17T07:58:18Z) - One More Step: A Versatile Plug-and-Play Module for Rectifying Diffusion
Schedule Flaws and Enhancing Low-Frequency Controls [77.42510898755037]
One More Step (OMS) は、推論中に単純だが効果的なステップを付加したコンパクトネットワークである。
OMSは画像の忠実度を高め、トレーニングと推論の二分法を調和させ、元のモデルパラメータを保存する。
トレーニングが完了すると、同じ潜在ドメインを持つ様々な事前訓練された拡散モデルが同じOMSモジュールを共有することができる。
論文 参考訳(メタデータ) (2023-11-27T12:02:42Z) - WaveBound: Dynamic Error Bounds for Stable Time Series Forecasting [30.692056599222926]
時系列予測は、現実の応用において高い実用性のために重要な課題となっている。
最近のディープラーニングベースのアプローチは、時系列予測において顕著な成功を収めている。
深層ネットワークはいまだに不安定なトレーニングと過度な適合に悩まされている。
論文 参考訳(メタデータ) (2022-10-25T19:58:02Z) - Time Series Forecasting Models Copy the Past: How to Mitigate [24.397660153755997]
ノイズや不確実性の存在下では、ニューラルネットワークモデルは時系列の最後の観測値を複製する傾向がある。
本稿では、以前に見られた値の複製を罰する正規化項を提案する。
以上の結果から, 正規化という用語は, 上記の問題をある程度緩和し, より堅牢なモデルがもたらされることが示唆された。
論文 参考訳(メタデータ) (2022-07-27T10:39:00Z) - Meta-Forecasting by combining Global DeepRepresentations with Local
Adaptation [12.747008878068314]
メタグローバルローカル自動回帰(Meta-GLAR)と呼ばれる新しい予測手法を導入する。
それは、リカレントニューラルネットワーク(RNN)によって生成された表現からワンステップアヘッド予測へのマッピングをクローズドフォームで学習することで、各時系列に適応する。
本手法は,先行研究で報告されたサンプル外予測精度において,最先端の手法と競合する。
論文 参考訳(メタデータ) (2021-11-05T11:45:02Z) - On the Generalization of Stochastic Gradient Descent with Momentum [58.900860437254885]
まず,アルゴリズムの安定性が一般化保証の確立に失敗する凸損失関数が存在することを示す。
滑らかなリプシッツ損失関数に対して、修正モーメントに基づく更新規則を解析し、一般化誤差の上界を認めることを示す。
強凸損失関数の特別な場合において、標準 SGDM の複数のエポックが SGDEM の特別な形式として一般化されるような運動量の範囲を見出す。
論文 参考訳(メタデータ) (2021-02-26T18:58:29Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - On the Generalization of Stochastic Gradient Descent with Momentum [84.54924994010703]
運動量に基づく勾配降下(SGD)の加速変種は、機械学習モデルを訓練する際に広く用いられる。
まず,標準重球運動量(SGDM)を持つSGDの複数のエポックに対する安定性ギャップが非有界となる凸損失関数が存在することを示す。
滑らかなリプシッツ損失関数に対しては、修正モーメントベースの更新規則、すなわち、幅広いステップサイズで初期運動量(SGDEM)を解析する。
論文 参考訳(メタデータ) (2018-09-12T17:02:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。