論文の概要: Patch-wise Structural Loss for Time Series Forecasting
- arxiv url: http://arxiv.org/abs/2503.00877v1
- Date: Sun, 02 Mar 2025 12:36:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-05 19:16:52.989121
- Title: Patch-wise Structural Loss for Time Series Forecasting
- Title(参考訳): 時系列予測のためのパッチワイド構造損失
- Authors: Dilfira Kudrat, Zongxia Xie, Yanru Sun, Tianyu Jia, Qinghua Hu,
- Abstract要約: Patch-wise Structure (PS) Losは、パッチレベルでの時系列を比較することで、構造的アライメントを向上させるように設計されている。
PS損失は、従来のポイントワイドの損失によって見落とされた、微妙な構造上の不一致を捉えている。
ポイントワイズロスとシームレスに統合され、局所的な構造上の不整合と個々のタイムステップエラーに同時に対処する。
- 参考スコア(独自算出の注目度): 25.291749176117662
- License:
- Abstract: Time-series forecasting has gained significant attention in machine learning due to its crucial role in various domains. However, most existing forecasting models rely heavily on point-wise loss functions like Mean Square Error, which treat each time step independently and neglect the structural dependencies inherent in time series data, making it challenging to capture complex temporal patterns accurately. To address these challenges, we propose a novel Patch-wise Structural (PS) loss, designed to enhance structural alignment by comparing time series at the patch level. Through leveraging local statistical properties, such as correlation, variance, and mean, PS loss captures nuanced structural discrepancies overlooked by traditional point-wise losses. Furthermore, it integrates seamlessly with point-wise loss, simultaneously addressing local structural inconsistencies and individual time-step errors. PS loss establishes a novel benchmark for accurately modeling complex time series data and provides a new perspective on time series loss function design. Extensive experiments demonstrate that PS loss significantly improves the performance of state-of-the-art models across diverse real-world datasets.
- Abstract(参考訳): 時系列予測は、さまざまな領域において重要な役割を担っているため、機械学習において大きな注目を集めている。
しかし、既存の予測モデルはMean Square Errorのようなポイントワイズ損失関数に大きく依存しており、これは各時間ステップを独立に扱い、時系列データに固有の構造的依存関係を無視しているため、複雑な時間的パターンを正確にキャプチャすることは困難である。
これらの課題に対処するため、パッチレベルでの時系列を比較することで構造的アライメントを向上させるために、新しいパッチワイズ構造損失(PS)を提案する。
相関、分散、平均値といった局所的な統計特性を活用することで、PS損失は従来のポイントワイドの損失によって見過ごされる微妙な構造的不一致を捉える。
さらに、ポイントワイズロスとシームレスに統合し、局所的な構造上の不整合と個々のタイムステップエラーに同時に対処する。
PS損失は、複雑な時系列データを正確にモデル化するための新しいベンチマークを確立し、時系列損失関数設計の新しい視点を提供する。
大規模な実験により、PS損失は様々な実世界のデータセットにわたる最先端モデルの性能を大幅に改善することが示された。
関連論文リスト
- Powerformer: A Transformer with Weighted Causal Attention for Time-series Forecasting [50.298817606660826]
我々は,非因果重みをスムーズな重み付き崩壊に応じて再加重する因果重みに置き換える新しいトランスフォーマーであるPowerformerを紹介する。
我々の実証実験の結果,Powerformer は公開時系列ベンチマークで最先端の精度を達成できた。
分析の結果、トレーニング中にモデルの局所性バイアスが増幅され、時系列データとパワールールに基づく注意の相互作用が示されることがわかった。
論文 参考訳(メタデータ) (2025-02-10T04:42:11Z) - BRATI: Bidirectional Recurrent Attention for Time-Series Imputation [0.14999444543328289]
時系列分析におけるデータの欠落は、ダウンストリームアプリケーションの信頼性に影響を及ぼす、重大な課題を引き起こす。
本稿では,多変量時系列計算のための新しい深層学習モデルであるBRATIを紹介する。
BRATIは時間的依存を処理し、長い時間的水平線と短い時間的水平線をまたいだ特徴相関を処理し、その逆の時間的方向で動作する2つの計算ブロックを利用する。
論文 参考訳(メタデータ) (2025-01-09T17:50:56Z) - Temporal Feature Matters: A Framework for Diffusion Model Quantization [105.3033493564844]
拡散モデルはマルチラウンド・デノナイジングの時間ステップに依存している。
3つの戦略を含む新しい量子化フレームワークを導入する。
このフレームワークは時間情報のほとんどを保存し、高品質なエンドツーエンド生成を保証する。
論文 参考訳(メタデータ) (2024-07-28T17:46:15Z) - Learning Graph Structures and Uncertainty for Accurate and Calibrated Time-series Forecasting [65.40983982856056]
本稿では,時系列間の相関を利用して時系列間の構造を学習し,精度の高い正確な予測を行うSTOICを紹介する。
幅広いベンチマークデータセットに対して、STOICは16%の精度とキャリブレーションのよい予測を提供する。
論文 参考訳(メタデータ) (2024-07-02T20:14:32Z) - Graph Spatiotemporal Process for Multivariate Time Series Anomaly
Detection with Missing Values [67.76168547245237]
本稿では,グラフ時間過程と異常スコアラを用いて異常を検出するGST-Proという新しいフレームワークを提案する。
実験結果から,GST-Pro法は時系列データ中の異常を効果的に検出し,最先端の手法より優れていることがわかった。
論文 参考訳(メタデータ) (2024-01-11T10:10:16Z) - U-Mixer: An Unet-Mixer Architecture with Stationarity Correction for
Time Series Forecasting [11.55346291812749]
時系列予測における非定常性は、深い層を通しての安定した特徴伝達を阻害し、特徴分布を妨害し、学習データ分布の変化を複雑化する。
異なるパッチとチャネル間の局所的な時間的依存関係を別々にキャプチャするU-Mixerを提案する。
U-Mixerは最先端(SOTA)法よりも14.5%,7.7%改善している。
論文 参考訳(メタデータ) (2024-01-04T12:41:40Z) - DRAformer: Differentially Reconstructed Attention Transformer for
Time-Series Forecasting [7.805077630467324]
時系列予測は、機器ライフサイクル予測、天気予報、交通フロー予測など、多くの現実シナリオにおいて重要な役割を果たす。
最近の研究から、様々なトランスフォーマーモデルが時系列予測において顕著な結果を示したことが観察できる。
しかし、時系列予測タスクにおけるトランスフォーマーモデルの性能を制限する問題がまだ残っている。
論文 参考訳(メタデータ) (2022-06-11T10:34:29Z) - TACTiS: Transformer-Attentional Copulas for Time Series [76.71406465526454]
時間変化量の推定は、医療や金融などの分野における意思決定の基本的な構成要素である。
本稿では,アテンションベースデコーダを用いて関節分布を推定する多元的手法を提案する。
本研究では,本モデルが実世界の複数のデータセットに対して最先端の予測を生成することを示す。
論文 参考訳(メタデータ) (2022-02-07T21:37:29Z) - Time Series Domain Adaptation via Sparse Associative Structure Alignment [29.003081310633323]
ドメイン適応のための新しい疎結合構造アライメントモデルを提案する。
まず、オフセットの障害を排除するためのセグメントセットを生成する。
第2に、変数内および変数間スパースアテンション機構を考案し、連想構造時系列データを抽出する。
第3に、連想構造アライメントは、ソースドメインからターゲットドメインへの知識の転送を導くために使用される。
論文 参考訳(メタデータ) (2020-12-22T02:30:40Z) - Spatiotemporal Attention for Multivariate Time Series Prediction and
Interpretation [17.568599402858037]
最も重要な時間ステップと変数の同時学習のための時間的注意機構(STAM)。
結果: STAMは最先端の予測精度を維持しつつ,正確な解釈可能性の利点を提供する。
論文 参考訳(メタデータ) (2020-08-11T17:34:55Z) - Transformer Hawkes Process [79.16290557505211]
本稿では,長期的依存関係を捕捉する自己認識機構を利用したTransformer Hawkes Process (THP) モデルを提案する。
THPは、有意なマージンによる可能性と事象予測の精度の両方の観点から、既存のモデルより優れている。
本稿では、THPが関係情報を組み込む際に、複数の点過程を学習する際の予測性能の改善を実現する具体例を示す。
論文 参考訳(メタデータ) (2020-02-21T13:48:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。