論文の概要: Self-Supervised Temporal Super-Resolution of Energy Data using Generative Adversarial Transformer
- arxiv url: http://arxiv.org/abs/2508.10587v1
- Date: Thu, 14 Aug 2025 12:25:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.307797
- Title: Self-Supervised Temporal Super-Resolution of Energy Data using Generative Adversarial Transformer
- Title(参考訳): 生成逆変換器を用いた自己監督型時間的エネルギーデータの超解法
- Authors: Xuanhao Mu, Gökhan Demirel, Yuzhe Zhang, Jianlei Liu, Thorsten Schlachter, Veit Hagenmeyer,
- Abstract要約: 時系列生成モデル、超解法モデル、計算モデルも潜在的な可能性を示しているが、根本的な課題もある。
時系列超解法モデルや計算モデルでは、入力された低解像度の時系列が希少であるため、アップサンプリングの精度を低下させることができる。
本稿では,GAT(Generative Adrial Transformer)を利用した新しい手法を提案する。
- 参考スコア(独自算出の注目度): 1.4901057648770244
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To bridge the temporal granularity gap in energy network design and operation based on Energy System Models, resampling of time series is required. While conventional upsampling methods are computationally efficient, they often result in significant information loss or increased noise. Advanced models such as time series generation models, Super-Resolution models and imputation models show potential, but also face fundamental challenges. The goal of time series generative models is to learn the distribution of the original data to generate high-resolution series with similar statistical characteristics. This is not entirely consistent with the definition of upsampling. Time series Super-Resolution models or imputation models can degrade the accuracy of upsampling because the input low-resolution time series are sparse and may have insufficient context. Moreover, such models usually rely on supervised learning paradigms. This presents a fundamental application paradox: their training requires the high-resolution time series that is intrinsically absent in upsampling application scenarios. To address the mentioned upsampling issue, this paper introduces a new method utilizing Generative Adversarial Transformers (GATs), which can be trained without access to any ground-truth high-resolution data. Compared with conventional interpolation methods, the introduced method can reduce the root mean square error (RMSE) of upsampling tasks by 9%, and the accuracy of a model predictive control (MPC) application scenario is improved by 13%.
- Abstract(参考訳): エネルギーネットワーク設計とエネルギーシステムモデルに基づく運用における時間的粒度のギャップを埋めるためには,時系列の再サンプリングが必要である。
従来のアップサンプリング手法は計算効率が良いが、大きな情報損失やノイズの増加をもたらすことが多い。
時系列生成モデルや超解法モデル、計算モデルといった高度なモデルは潜在的な可能性を示すが、根本的な課題にも直面する。
時系列生成モデルの目標は、元のデータの分布を学習し、同様の統計特性を持つ高解像度の系列を生成することである。
これはアップサンプリングの定義と完全に一致していない。
時系列超解法モデルや計算モデルでは、入力された低解像度の時系列はスパースであり、文脈が不十分であるため、アップサンプリングの精度が低下する可能性がある。
さらに、そのようなモデルは典型的には教師付き学習パラダイムに依存している。
トレーニングには、アプリケーションシナリオのアップサンプリングに本質的に欠落している高解像度の時系列が必要です。
上述のアップサンプリング問題に対処するため,提案手法はGAT(Generative Adversarial Transformer)を利用した新しい手法を提案する。
従来の補間法と比較して,提案手法は,アップサンプリングタスクの根平均二乗誤差(RMSE)を9%削減し,モデル予測制御(MPC)適用シナリオの精度を13%向上させる。
関連論文リスト
- Noise Hypernetworks: Amortizing Test-Time Compute in Diffusion Models [57.49136894315871]
テストタイムスケーリングの新しいパラダイムは、推論モデルと生成視覚モデルにおいて驚くべきブレークスルーをもたらした。
本稿では,テスト時間スケーリングの知識をモデルに組み込むことの課題に対する1つの解決策を提案する。
拡散モデルにおいて、初期入力ノイズを変調するノイズハイパーネットワークにより、報酬誘導試験時間雑音の最適化を行う。
論文 参考訳(メタデータ) (2025-08-13T17:33:37Z) - Approximate Probabilistic Inference for Time-Series Data A Robust Latent Gaussian Model With Temporal Awareness [0.40924476987095715]
本稿では,時間的情報を取得するための確率的生成モデルを提案する。
我々のモデルは、負のログ損失に基づいて損失関数を最小限に抑えるために訓練されている。
実験により、tDLGMは複雑な時系列データを再構成して生成することができ、ノイズや故障データに対して堅牢であることが示された。
論文 参考訳(メタデータ) (2024-11-14T09:38:58Z) - TimeDiT: General-purpose Diffusion Transformers for Time Series Foundation Model [11.281386703572842]
TimeDiTは時間依存性学習と確率的サンプリングを組み合わせた拡散トランスフォーマーモデルである。
TimeDiTは、さまざまなタスクにわたるトレーニングと推論プロセスを調和させるために、統一的なマスキングメカニズムを採用している。
我々の体系的評価は、ゼロショット/ファインチューニングによる予測と計算という基本的なタスクにおいて、TimeDiTの有効性を示す。
論文 参考訳(メタデータ) (2024-09-03T22:31:57Z) - Temporal Feature Matters: A Framework for Diffusion Model Quantization [105.3033493564844]
拡散モデルはマルチラウンド・デノナイジングの時間ステップに依存している。
3つの戦略を含む新しい量子化フレームワークを導入する。
このフレームワークは時間情報のほとんどを保存し、高品質なエンドツーエンド生成を保証する。
論文 参考訳(メタデータ) (2024-07-28T17:46:15Z) - Timer: Generative Pre-trained Transformers Are Large Time Series Models [83.03091523806668]
本稿では,大規模時系列モデル(LTSM)の早期開発を目的とした。
事前トレーニング中に、最大10億のタイムポイントを持つ大規模なデータセットをキュレートします。
多様なアプリケーションのニーズを満たすため,予測,計算,時系列の異常検出を統一的な生成タスクに変換する。
論文 参考訳(メタデータ) (2024-02-04T06:55:55Z) - TFMQ-DM: Temporal Feature Maintenance Quantization for Diffusion Models [52.454274602380124]
拡散モデルは非常に時間ステップ$t$に大きく依存し、良好なマルチラウンドデノジングを実現している。
本稿では,時間情報ブロック上に構築した時間的特徴保守量子化(TFMQ)フレームワークを提案する。
先駆的なブロック設計により、時間情報認識再構成(TIAR)と有限集合キャリブレーション(FSC)を考案し、完全な時間的特徴を整列させる。
論文 参考訳(メタデータ) (2023-11-27T12:59:52Z) - Deep Generative model with Hierarchical Latent Factors for Time Series
Anomaly Detection [40.21502451136054]
本研究は、時系列異常検出のための新しい生成モデルであるDGHLを提示する。
トップダウンの畳み込みネットワークは、新しい階層的な潜在空間を時系列ウィンドウにマッピングし、時間ダイナミクスを利用して情報を効率的にエンコードする。
提案手法は,4つのベンチマーク・データセットにおいて,現在の最先端モデルよりも優れていた。
論文 参考訳(メタデータ) (2022-02-15T17:19:44Z) - Anytime Sampling for Autoregressive Models via Ordered Autoencoding [88.01906682843618]
自動回帰モデルは画像生成や音声生成などのタスクに広く使われている。
これらのモデルのサンプリングプロセスは割り込みを許さず、リアルタイムの計算資源に適応できない。
いつでもサンプリングできる新しい自動回帰モデルファミリーを提案します。
論文 参考訳(メタデータ) (2021-02-23T05:13:16Z) - Anomaly Detection of Time Series with Smoothness-Inducing Sequential
Variational Auto-Encoder [59.69303945834122]
Smoothness-Inducing Sequential Variational Auto-Encoder (SISVAE) モデルを提案する。
我々のモデルは、フレキシブルニューラルネットワークを用いて各タイムスタンプの平均と分散をパラメータ化する。
合成データセットと公開実世界のベンチマークの両方において,本モデルの有効性を示す。
論文 参考訳(メタデータ) (2021-02-02T06:15:15Z) - Multivariate Probabilistic Time Series Forecasting via Conditioned
Normalizing Flows [8.859284959951204]
時系列予測は科学的・工学的な問題の基本である。
深層学習法はこの問題に適している。
多くの実世界のデータセットにおける標準メトリクスの最先端よりも改善されていることを示す。
論文 参考訳(メタデータ) (2020-02-14T16:16:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。