論文の概要: Dominant Shuffle: A Simple Yet Powerful Data Augmentation for Time-series Prediction
- arxiv url: http://arxiv.org/abs/2405.16456v1
- Date: Sun, 26 May 2024 07:00:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-28 21:08:36.736221
- Title: Dominant Shuffle: A Simple Yet Powerful Data Augmentation for Time-series Prediction
- Title(参考訳): Dominant Shuffle: 時系列予測のためのシンプルだが強力なデータ拡張
- Authors: Kai Zhao, Zuojie He, Alex Hung, Dan Zeng,
- Abstract要約: 既存の周波数領域拡張は、様々なフルスペクトルノイズで元のデータを妨害する。
我々は、時系列予測のための単純で効果的なデータ拡張である支配的なシャッフルを提案する。
私たちのメソッドは非常にシンプルで強力で、ほんの数行のコードで実装できます。
- 参考スコア(独自算出の注目度): 6.946432715033044
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies have suggested frequency-domain Data augmentation (DA) is effec tive for time series prediction. Existing frequency-domain augmentations disturb the original data with various full-spectrum noises, leading to excess domain gap between augmented and original data. Although impressive performance has been achieved in certain cases, frequency-domain DA has yet to be generalized to time series prediction datasets. In this paper, we found that frequency-domain augmentations can be significantly improved by two modifications that limit the perturbations. First, we found that limiting the perturbation to only dominant frequencies significantly outperforms full-spectrum perturbations. Dominant fre quencies represent the main periodicity and trends of the signal and are more important than other frequencies. Second, we found that simply shuffling the dominant frequency components is superior over sophisticated designed random perturbations. Shuffle rearranges the original components (magnitudes and phases) and limits the external noise. With these two modifications, we proposed dominant shuffle, a simple yet effective data augmentation for time series prediction. Our method is very simple yet powerful and can be implemented with just a few lines of code. Extensive experiments with eight datasets and six popular time series models demonstrate that our method consistently improves the baseline performance under various settings and significantly outperforms other DA methods. Code can be accessed at https://kaizhao.net/time-series.
- Abstract(参考訳): 近年の研究では、周波数領域データ拡張(DA)が時系列予測に有効であることが示唆されている。
既存の周波数領域拡張は、様々なフルスペクトルノイズで元のデータを妨害し、拡張されたデータと元のデータの間に余分な領域ギャップを生じさせる。
しかし,周波数領域 DA は時系列予測データセットにはまだ一般化されていない。
本稿では,周波数領域の増大が,摂動を制限する2つの修正によって著しく改善できることを見出した。
第一に、摂動を支配周波数のみに制限することはフルスペクトル摂動を著しく上回ることがわかった。
支配的な周波数は信号の主な周期性と傾向を表し、他の周波数よりも重要である。
第二に、主周波数成分のシャッフルは、高度に設計されたランダムな摂動よりも優れていることを発見した。
Shuffleは元のコンポーネント(マグニチュードとフェーズ)を再配置し、外部ノイズを制限する。
これら2つの修正により、時系列予測のための単純で効果的なデータ拡張である支配的なシャッフルを提案した。
私たちのメソッドは非常にシンプルで強力で、ほんの数行のコードで実装できます。
8つのデータセットと6つの一般的な時系列モデルによる大規模な実験により、我々の手法は、様々な設定下でのベースライン性能を一貫して改善し、他のDA手法よりも大幅に向上することを示した。
コードはhttps://kaizhao.net/time-seriesでアクセスすることができる。
関連論文リスト
- FM-TS: Flow Matching for Time Series Generation [71.31148785577085]
本稿では、時系列生成のための修正フローマッチングベースのフレームワークFM-TSを紹介する。
FM-TSは、トレーニングと推論の点でより効率的である。
我々は、太陽予測とMuJoCo計算タスクにおいて優れた性能を達成した。
論文 参考訳(メタデータ) (2024-11-12T03:03:23Z) - FLEXtime: Filterbank learning for explaining time series [10.706092195673257]
本稿では,FLEXtimeと呼ばれる時系列説明可能性の新たな手法を提案する。
フィルタバンクを使用して、時系列を周波数帯域に分割し、これらのバンドの最適な組み合わせを学ぶ。
本評価の結果,FLEXtime は様々なデータセットに対して,最先端の説明可能性手法よりも優れていることがわかった。
論文 参考訳(メタデータ) (2024-11-06T15:06:42Z) - Less is more: Embracing sparsity and interpolation with Esiformer for time series forecasting [19.8447763392479]
実世界のアプリケーションから生成された時系列データは、常に高いばらつきと多くのノイズを示す。
本稿では,元のデータに適用し,データ全体のばらつきを低減し,ノイズの影響を軽減するEsiformerを提案する。
MSEを6.5%,MAEを5.8%削減した。
論文 参考訳(メタデータ) (2024-10-08T06:45:47Z) - Accelerating Inference of Networks in the Frequency Domain [8.125023712173686]
本稿では,周波数パラメータが疎いネットワークを高速化するために,周波数領域におけるネットワーク推論を提案する。
特に、空間領域におけるネットワーク推論に双対な周波数推論連鎖を提案する。
提案手法は,高速比(100倍以上)の場合の精度を著しく向上させる。
論文 参考訳(メタデータ) (2024-10-06T03:34:38Z) - Deep Frequency Derivative Learning for Non-stationary Time Series Forecasting [12.989064148254936]
非定常時系列予測のためのディープ周波数微分学習フレームワークDERITSを提案する。
具体的には、DERITSは、新しい可逆変換、すなわち周波数微分変換(FDT)に基づいて構築される。
論文 参考訳(メタデータ) (2024-06-29T17:56:59Z) - Fredformer: Frequency Debiased Transformer for Time Series Forecasting [8.356290446630373]
Transformerモデルは時系列予測において主要なパフォーマンスを示している。
データの中で低周波の特徴を学習し、高周波の特徴を見落とし、周波数バイアスを示す傾向がある。
そこで我々はFredformerを提案する。Fredformerは、異なる周波数帯域にまたがる特徴を均等に学習することで、周波数バイアスを軽減するために設計されたフレームワークである。
論文 参考訳(メタデータ) (2024-06-13T11:29:21Z) - Learning with Noisy Foundation Models [95.50968225050012]
本論文は、事前学習データセットにおけるノイズの性質を包括的に理解し分析する最初の研究である。
雑音の悪影響を緩和し、一般化を改善するため、特徴空間に適応するチューニング法(NMTune)を提案する。
論文 参考訳(メタデータ) (2024-03-11T16:22:41Z) - Generative Time Series Forecasting with Diffusion, Denoise, and
Disentanglement [51.55157852647306]
時系列予測は多くのアプリケーションにおいて非常に重要な課題である。
実世界の時系列データが短時間に記録されることが一般的であり、これはディープモデルと限られたノイズのある時系列との間に大きなギャップをもたらす。
本稿では,生成モデルを用いた時系列予測問題に対処し,拡散,雑音,ゆがみを備えた双方向変分自動エンコーダを提案する。
論文 参考訳(メタデータ) (2023-01-08T12:20:46Z) - Transform Once: Efficient Operator Learning in Frequency Domain [69.74509540521397]
本研究では、周波数領域の構造を利用して、空間や時間における長距離相関を効率的に学習するために設計されたディープニューラルネットワークについて検討する。
この研究は、単一変換による周波数領域学習のための青写真を導入している。
論文 参考訳(メタデータ) (2022-11-26T01:56:05Z) - Adaptive Frequency Learning in Two-branch Face Forgery Detection [66.91715092251258]
本稿では、AFDと呼ばれる2分岐検出フレームワークにおいて、周波数情報を適応的に学習する手法を提案する。
我々は、固定周波数変換からネットワークを解放し、データおよびタスク依存の変換層でより良いパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-03-27T14:25:52Z) - Real Time Speech Enhancement in the Waveform Domain [99.02180506016721]
本稿では,ラップトップCPU上でリアルタイムに動作する生波形を用いた因果音声強調モデルを提案する。
提案モデルは、スキップ接続を持つエンコーダデコーダアーキテクチャに基づいている。
静止ノイズや非定常ノイズを含む様々な背景ノイズを除去することができる。
論文 参考訳(メタデータ) (2020-06-23T09:19:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。