論文の概要: Fourier-Enhanced Recurrent Neural Networks for Electrical Load Time Series Downscaling
- arxiv url: http://arxiv.org/abs/2512.07876v1
- Date: Thu, 27 Nov 2025 09:04:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 04:16:52.53831
- Title: Fourier-Enhanced Recurrent Neural Networks for Electrical Load Time Series Downscaling
- Title(参考訳): 電気負荷時系列ダウンスケーリングのためのフーリエ強化リカレントニューラルネットワーク
- Authors: Qi Chen, Mihai Anitescu,
- Abstract要約: 本稿では、電気負荷をダウンスケールするためのFourier-enhanced Recurrent Neural Network(RNN)を提案する。
4つのPJM領域にまたがって、このアプローチはRMSEを古典的預言者の基本線よりも低く平らにしている。
- 参考スコア(独自算出の注目度): 8.172196066871296
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a Fourier-enhanced recurrent neural network (RNN) for downscaling electrical loads. The model combines (i) a recurrent backbone driven by low-resolution inputs, (ii) explicit Fourier seasonal embeddings fused in latent space, and (iii) a self-attention layer that captures dependencies among high-resolution components within each period. Across four PJM territories, the approach yields RMSE lower and flatter horizon-wise than classical Prophet baselines (with and without seasonality/LAA) and than RNN ablations without attention or Fourier features.
- Abstract(参考訳): 本稿では、電気負荷をダウンスケールするためのFourier-enhanced Recurrent Neural Network(RNN)を提案する。
モデルは結合します
(i)低分解能入力により駆動されるリカレントバックボーン
(二)潜時空間に融着した明示的なフーリエ季節埋め込み
三) 各期間に高分解能成分間の依存関係を捕捉する自己保持層。
4つのPJM領域にまたがって、RMSE は古典的預言者の基本線(季節/LAAなし)よりも低地平線と平坦地平線を、注意やフーリエの特徴のない RNN アブレーションよりも引き起こす。
関連論文リスト
- Iterative Training of Physics-Informed Neural Networks with Fourier-enhanced Features [7.1865646765394215]
スペクトルバイアスは、ニューラルネットワークがまず低周波の特徴を学習する傾向にあるが、これはよく知られた問題である。
本稿では,Fourier-enhanced機能付きPINNの反復学習アルゴリズムであるIFeF-PINNを提案する。
論文 参考訳(メタデータ) (2025-10-22T09:17:37Z) - AR-KAN: Autoregressive-Weight-Enhanced Kolmogorov-Arnold Network for Time Series Forecasting [10.66769114905278]
時間記憶のための事前学習ARモジュールと非線形表現のためのkanを統合した自己回帰強化コルモゴロフ・アルノルドネットワーク(AR-KAN)を提案する。
AR-KANはARIMAとほぼ周期関数で一致し、72%のRdatasetsシリーズで最高の結果を得る。
論文 参考訳(メタデータ) (2025-09-03T03:11:26Z) - Neuromorphic Wireless Split Computing with Resonate-and-Fire Neurons [69.73249913506042]
本稿では、共振器(RF)ニューロンを用いて時間領域信号を直接処理する無線スプリットコンピューティングアーキテクチャについて検討する。
可変周波数で共鳴することにより、RFニューロンは低スパイク活性を維持しながら時間局在スペクトル特徴を抽出する。
実験の結果,提案したRF-SNNアーキテクチャは従来のLIF-SNNやANNと同等の精度を達成できることがわかった。
論文 参考訳(メタデータ) (2025-06-24T21:14:59Z) - TS-LIF: A Temporal Segment Spiking Neuron Network for Time Series Forecasting [27.91825785119938]
Spiking Neural Networks(SNN)は、時系列予測のためのデータ処理に、有望で生物学的にインスパイアされたアプローチを提供する。
本稿では,デュアルコンパートメントアーキテクチャを特徴とするテンポラルリーキーセグメント統合とファイアモデルを提案する。
実験の結果,TS-LIFは時系列予測において従来のSNNよりも優れていた。
論文 参考訳(メタデータ) (2025-03-07T03:06:21Z) - Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - Convergence of mean-field Langevin dynamics: Time and space
discretization, stochastic gradient, and variance reduction [49.66486092259376]
平均場ランゲヴィンダイナミクス(英: mean-field Langevin dynamics、MFLD)は、分布依存のドリフトを含むランゲヴィン力学の非線形一般化である。
近年の研究では、MFLDは測度空間で機能するエントロピー規則化された凸関数を地球規模で最小化することが示されている。
有限粒子近似,時間分散,勾配近似による誤差を考慮し,MFLDのカオスの均一時間伝播を示す枠組みを提供する。
論文 参考訳(メタデータ) (2023-06-12T16:28:11Z) - Incremental Spatial and Spectral Learning of Neural Operators for
Solving Large-Scale PDEs [86.35471039808023]
Incrmental Fourier Neural Operator (iFNO)を導入し、モデルが使用する周波数モードの数を徐々に増加させる。
iFNOは、各種データセット間の一般化性能を維持したり改善したりしながら、トレーニング時間を短縮する。
提案手法は,既存のフーリエニューラル演算子に比べて20%少ない周波数モードを用いて,10%低いテスト誤差を示すとともに,30%高速なトレーニングを実現する。
論文 参考訳(メタデータ) (2022-11-28T09:57:15Z) - Overcoming the Spectral Bias of Neural Value Approximation [17.546011419043644]
ディープニューラルネットワークを用いた値近似は、アルゴリズムの他の部分に学習信号を提供する主要なモジュールであることが多い。
神経核レグレッションにおける最近の研究は、スペクトルバイアスの存在を示唆している。そこでは、値関数の高周波成分を適合させるには、低周波成分よりも指数関数的に多くの勾配更新ステップが必要である。
我々は、カーネルレグレッションのレンズを通して、非政治強化学習を再検討し、複合神経カーネルを介してそのようなバイアスを克服することを提案する。
論文 参考訳(メタデータ) (2022-06-09T17:59:57Z) - Factorized Fourier Neural Operators [77.47313102926017]
Factorized Fourier Neural Operator (F-FNO) は偏微分方程式をシミュレートする学習法である。
我々は,数値解法よりも桁違いに高速に動作しながら,誤差率2%を維持していることを示す。
論文 参考訳(メタデータ) (2021-11-27T03:34:13Z) - Fourier Neural Networks as Function Approximators and Differential
Equation Solvers [0.456877715768796]
活性化と損失関数の選択は、フーリエ級数展開を密接に再現する結果をもたらす。
我々はこのFNNを自然周期的滑らかな関数と断片的連続周期関数で検証する。
現在のアプローチの主な利点は、トレーニング領域外のソリューションの有効性、トレーニングされたモデルの解釈可能性、使用の単純さである。
論文 参考訳(メタデータ) (2020-05-27T00:30:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。