論文の概要: HierCVAE: Hierarchical Attention-Driven Conditional Variational Autoencoders for Multi-Scale Temporal Modeling
- arxiv url: http://arxiv.org/abs/2508.18922v1
- Date: Tue, 26 Aug 2025 10:55:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.812097
- Title: HierCVAE: Hierarchical Attention-Driven Conditional Variational Autoencoders for Multi-Scale Temporal Modeling
- Title(参考訳): HierCVAE:マルチスケールテンポラルモデリングのための階層的アテンション駆動条件変分オートエンコーダ
- Authors: Yao Wu,
- Abstract要約: 複雑なシステムにおける時間モデリングには、複数の時間スケールで依存関係をキャプチャする必要がある。
階層型アテンション機構と条件付き変分オートエンコーダを組み合わせた新しいアーキテクチャであるHierCVAEを提案する。
- 参考スコア(独自算出の注目度): 7.900277891102576
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Temporal modeling in complex systems requires capturing dependencies across multiple time scales while managing inherent uncertainties. We propose HierCVAE, a novel architecture that integrates hierarchical attention mechanisms with conditional variational autoencoders to address these challenges. HierCVAE employs a three-tier attention structure (local, global, cross-temporal) combined with multi-modal condition encoding to capture temporal, statistical, and trend information. The approach incorporates ResFormer blocks in the latent space and provides explicit uncertainty quantification via prediction heads. Through evaluations on energy consumption datasets, HierCVAE demonstrates a 15-40% improvement in prediction accuracy and superior uncertainty calibration compared to state-of-the-art methods, excelling in long-term forecasting and complex multi-variate dependencies.
- Abstract(参考訳): 複雑なシステムにおける時間モデリングは、固有の不確実性を管理しながら、複数の時間スケールにわたる依存関係をキャプチャする必要がある。
階層型アテンション機構と条件付き変分オートエンコーダを統合し,これらの課題に対処する新しいアーキテクチャであるHierCVAEを提案する。
HierCVAEは3階層の注意構造(局所的、グローバル的、横断的)と多モード条件の符号化を組み合わせて、時間的、統計的、トレンド情報を取得する。
このアプローチは、潜在空間にResFormerブロックを組み込み、予測ヘッドを介して明確な不確実性定量化を提供する。
エネルギー消費データセットの評価を通じて、HierCVAEは予測精度が15~40%向上し、最先端の手法と比較して不確実性校正性が向上し、長期予測や複雑な多変量依存に優れることを示した。
関連論文リスト
- Multiresolution Analysis and Statistical Thresholding on Dynamic Networks [49.09073800467438]
ANIE(Adaptive Network Intensity Estimation)は、ネットワーク構造が進化する時間スケールを自動的に識別する多段階フレームワークである。
ANIEは適切な時間分解能に適応し、ノイズに頑健でありながら鋭い構造変化を捉えることができることを示す。
論文 参考訳(メタデータ) (2025-06-01T22:55:55Z) - SCENT: Robust Spatiotemporal Learning for Continuous Scientific Data via Scalable Conditioned Neural Fields [11.872753517172555]
SCENTは、スケーラブルで連続性に富んだモデリング学習のための新しいフレームワークである。
SCENTは単一のアーキテクチャ内で表現、再構築、予測を統一する。
我々はSCENTを広範囲なシミュレーションと実世界の実験により検証し、最先端の性能を実証した。
論文 参考訳(メタデータ) (2025-04-16T17:17:31Z) - Temporal Feature Matters: A Framework for Diffusion Model Quantization [105.3033493564844]
拡散モデルはマルチラウンド・デノナイジングの時間ステップに依存している。
3つの戦略を含む新しい量子化フレームワークを導入する。
このフレームワークは時間情報のほとんどを保存し、高品質なエンドツーエンド生成を保証する。
論文 参考訳(メタデータ) (2024-07-28T17:46:15Z) - Perceiver-based CDF Modeling for Time Series Forecasting [25.26713741799865]
本稿では,時系列データの累積分布関数(CDF)をモデル化するための新しいアーキテクチャであるPerceiver-CDFを提案する。
提案手法は,マルチモーダル時系列予測に適したコプラに基づくアテンション機構と,知覚アーキテクチャを組み合わせたものである。
単調かつマルチモーダルなベンチマークの実験は、最先端の手法よりも20%改善されていることを一貫して示している。
論文 参考訳(メタデータ) (2023-10-03T01:13:17Z) - Towards Long-Term Time-Series Forecasting: Feature, Pattern, and
Distribution [57.71199089609161]
長期的時系列予測(LTTF)は、風力発電計画など、多くのアプリケーションで需要が高まっている。
トランスフォーマーモデルは、高い計算自己認識機構のため、高い予測能力を提供するために採用されている。
LTTFの既存の手法を3つの面で区別する,Conformer という,効率的なTransformer ベースモデルを提案する。
論文 参考訳(メタデータ) (2023-01-05T13:59:29Z) - Temporal Saliency Detection Towards Explainable Transformer-based
Timeseries Forecasting [3.046315755726937]
本稿では、注意機構を基盤として、マルチ水平時系列予測に適用する効果的なアプローチであるTSD(Temporal Saliency Detection)を提案する。
TSD手法は, 多重ヘッドを凝縮することにより, 多分解能パターンの多分解能解析を容易にし, 複雑な時系列データの予測を段階的に向上させる。
論文 参考訳(メタデータ) (2022-12-15T12:47:59Z) - An Attention-based ConvLSTM Autoencoder with Dynamic Thresholding for
Unsupervised Anomaly Detection in Multivariate Time Series [2.9685635948299995]
本稿では,異常検出と診断を行うための動的閾値保持(ACLAE-DT)フレームワークを用いた非教師付き注意型畳み込み長短期記憶(ConvLSTM)オートエンコーダを提案する。
フレームワークは、システムステータスを特徴付ける機能イメージを構築する前に、データの事前処理と強化から始まります。
構築した特徴画像は注意に基づくConvLSTMオートエンコーダに入力される。
その後、再構成エラーを計算し、統計に基づく動的しきい値決定機構により異常を検出し診断する。
論文 参考訳(メタデータ) (2022-01-23T04:01:43Z) - Autoformer: Decomposition Transformers with Auto-Correlation for
Long-Term Series Forecasting [68.86835407617778]
Autoformerは、Auto-Correlation機構を備えた、新しい分解アーキテクチャである。
長期的な予測では、Autoformerは6つのベンチマークで相対的に改善され、最先端の精度が得られる。
論文 参考訳(メタデータ) (2021-06-24T13:43:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。