論文の概要: Revisiting PCA for time series reduction in temporal dimension
- arxiv url: http://arxiv.org/abs/2412.19423v1
- Date: Fri, 27 Dec 2024 03:17:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-30 17:27:33.159355
- Title: Revisiting PCA for time series reduction in temporal dimension
- Title(参考訳): 時間次元の時系列化のためのPCAの再検討
- Authors: Jiaxin Gao, Wenbo Hu, Yuntian Chen,
- Abstract要約: 我々は,主成分分析(PCA)を再検討し,時系列データに対する時間次元の削減におけるその有用性について検討する。
PCAはインフォーマトレーニングと推論速度を最大40%改善し、TimesNetのGPUメモリ使用量を30%削減する。
- 参考スコア(独自算出の注目度): 3.960653204680588
- License:
- Abstract: Revisiting PCA for Time Series Reduction in Temporal Dimension; Jiaxin Gao, Wenbo Hu, Yuntian Chen; Deep learning has significantly advanced time series analysis (TSA), enabling the extraction of complex patterns for tasks like classification, forecasting, and regression. Although dimensionality reduction has traditionally focused on the variable space-achieving notable success in minimizing data redundancy and computational complexity-less attention has been paid to reducing the temporal dimension. In this study, we revisit Principal Component Analysis (PCA), a classical dimensionality reduction technique, to explore its utility in temporal dimension reduction for time series data. It is generally thought that applying PCA to the temporal dimension would disrupt temporal dependencies, leading to limited exploration in this area. However, our theoretical analysis and extensive experiments demonstrate that applying PCA to sliding series windows not only maintains model performance, but also enhances computational efficiency. In auto-regressive forecasting, the temporal structure is partially preserved through windowing, and PCA is applied within these windows to denoise the time series while retaining their statistical information. By preprocessing time-series data with PCA, we reduce the temporal dimensionality before feeding it into TSA models such as Linear, Transformer, CNN, and RNN architectures. This approach accelerates training and inference and reduces resource consumption. Notably, PCA improves Informer training and inference speed by up to 40% and decreases GPU memory usage of TimesNet by 30%, without sacrificing model accuracy. Comparative analysis against other reduction methods further highlights the effectiveness of PCA in improving the efficiency of TSA models.
- Abstract(参考訳): 深層学習は、分類、予測、回帰といったタスクのための複雑なパターンの抽出を可能にする、かなり先進的な時系列解析(TSA)を持っている。
次元の減少は、伝統的にデータ冗長性と計算複雑性を欠いた注意を最小化することで、時間次元の減少に顕著な成功を収めることに焦点を合わせてきたが、時間次元の減少には注意が払われている。
本研究では,古典的次元削減手法である主成分分析(PCA)を再検討し,時系列データの時間次元削減におけるその有用性について検討する。
一般に、PCAを時間的次元に適用すると、時間的依存関係が破壊され、この地域での限られた探査に繋がると考えられている。
しかし,我々の理論的解析と広範な実験により,PCAをスライディング級数窓に適用することはモデル性能を維持するだけでなく,計算効率を向上させることが示されている。
自己回帰予測では、時間構造はウィンドウ化によって部分的に保存され、PCAはこれらのウィンドウ内で適用され、その統計情報を保持しながら時系列を識別する。
時系列データをPCAで前処理することにより、Linear、Transformer、CNN、RNNアーキテクチャなどのTSAモデルに入力する前に、時間次元を減少させる。
このアプローチはトレーニングと推論を加速し、リソース消費を減らす。
特にPCAは、モデル精度を犠牲にすることなく、Informerトレーニングと推論速度を最大40%改善し、TimesNetのGPUメモリ使用量を30%削減する。
他の還元法との比較分析は、TSAモデルの効率向上におけるPCAの有効性をさらに強調している。
関連論文リスト
- MultiPDENet: PDE-embedded Learning with Multi-time-stepping for Accelerated Flow Simulation [48.41289705783405]
マルチスケールタイムステップ(MultiPDENet)を用いたPDE組み込みネットワークを提案する。
特に,有限差分構造に基づく畳み込みフィルタを少数のパラメータで設計し,最適化する。
4階ランゲ・クッタ積分器を微細な時間スケールで備えた物理ブロックが確立され、PDEの構造を埋め込んで予測を導出する。
論文 参考訳(メタデータ) (2025-01-27T12:15:51Z) - LightCTS: A Lightweight Framework for Correlated Time Series Forecasting [20.530759059714594]
関連時系列予測(CTS)は,交通管理やサーバ負荷制御など,多くの実用アプリケーションにおいて重要な役割を担っている。
CTS予測の精度を向上させるために、多くのディープラーニングモデルが提案されている。
この研究は、リソース制約のあるデバイスにデプロイしながら精度を保ちながら、はるかに効率的で軽量なモデルを実現することを目的としている。
論文 参考訳(メタデータ) (2023-02-23T12:46:11Z) - Post-Processing Temporal Action Detection [134.26292288193298]
時間的行動検出(TAD)法は、通常、入力された可変長のビデオを固定長のスニペット表現シーケンスに変換する際に、前処理のステップを踏む。
この前処理ステップは、ビデオを時間的にダウンサンプリングし、推論の解像度を低減し、元の時間分解における検出性能を阻害する。
モデルの再設計や再学習を伴わない新しいモデル非依存のポストプロセッシング手法を提案する。
論文 参考訳(メタデータ) (2022-11-27T19:50:37Z) - A Systematic Exploration of Reservoir Computing for Forecasting Complex
Spatiotemporal Dynamics [0.0]
Reservoir Computer (RC) は、本質的にカオス力学系の予測アーキテクチャに成功しているリカレントニューラルネットワークの一種である。
多数の特性力学系に対する「クラス最良」RCのアーキテクチャと設計選択について検討する。
ローカライゼーションを用いた大規模モデルへのスケールアップにおけるこれらの選択の適用について述べる。
論文 参考訳(メタデータ) (2022-01-21T22:31:12Z) - FAST-PCA: A Fast and Exact Algorithm for Distributed Principal Component
Analysis [12.91948651812873]
主成分分析(PCA)は、機械学習の世界における基本的なデータ前処理ツールである。
本稿では,FAST-PCA (Fast and exact distributed PCA) と呼ばれる分散PCAアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-27T16:10:59Z) - Low-Rank Autoregressive Tensor Completion for Spatiotemporal Traffic
Data Imputation [4.9831085918734805]
データ計算の欠如は長年の研究課題であり、現実世界のインテリジェント交通システムにとって重要な応用である。
テキストの時間変化を新たな正規化項として導入し,低ランク自動回帰テンソル補完(LATC)フレームワークを提案する。
本研究では,複数の実世界の交通データ集合について広範な数値実験を行い,LATCの有効性を実証した。
論文 参考訳(メタデータ) (2021-04-30T12:00:57Z) - Spatio-Temporal Graph Scattering Transform [54.52797775999124]
グラフニューラルネットワークは、十分な高品質のトレーニングデータがないために、現実のシナリオでは実用的ではないかもしれない。
我々は時間的データを解析するための数学的に設計された新しいフレームワークを考案した。
論文 参考訳(メタデータ) (2020-12-06T19:49:55Z) - Predicting Training Time Without Training [120.92623395389255]
我々は、事前訓練された深層ネットワークが損失関数の所定の値に収束する必要がある最適化ステップの数を予測する問題に取り組む。
我々は、微調整中の深部ネットワークのトレーニングダイナミクスが線形化モデルによってよく近似されているという事実を活用する。
トレーニングをする必要なく、特定の損失にモデルを微調整するのに要する時間を予測できます。
論文 参考訳(メタデータ) (2020-08-28T04:29:54Z) - Model-Size Reduction for Reservoir Computing by Concatenating Internal
States Through Time [2.6872737601772956]
Reservoir Computing(RC)は、データから複雑な時系列を非常に高速に学習できる機械学習アルゴリズムである。
エッジコンピューティングにRCを実装するためには,RCに必要な計算資源の削減が重要である。
本研究では, 貯水池の過去又は漂流状態を現時点の出力層に投入することにより, 貯水池の規模を小さくする手法を提案する。
論文 参考訳(メタデータ) (2020-06-11T06:11:03Z) - Extrapolation for Large-batch Training in Deep Learning [72.61259487233214]
我々は、バリエーションのホストが、我々が提案する統一されたフレームワークでカバー可能であることを示す。
本稿では,この手法の収束性を証明し,ResNet,LSTM,Transformer上での経験的性能を厳格に評価する。
論文 参考訳(メタデータ) (2020-06-10T08:22:41Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。