論文の概要: Renewable Energy Prediction: A Comparative Study of Deep Learning Models for Complex Dataset Analysis
- arxiv url: http://arxiv.org/abs/2501.15731v1
- Date: Mon, 27 Jan 2025 02:10:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:58:44.698554
- Title: Renewable Energy Prediction: A Comparative Study of Deep Learning Models for Complex Dataset Analysis
- Title(参考訳): 再生可能エネルギー予測:複雑なデータセット解析のためのディープラーニングモデルの比較研究
- Authors: Haibo Wang, Jun Huang, Lutfu Sua, Bahram Alidaee,
- Abstract要約: ディープラーニング(DL)モデルは、再生可能エネルギーデータセットにおける複雑な非線形関係をキャプチャする。
7つの機械学習手法、LSTM, Stacked LSTM, CNN, CNN-LSTM, Time-Distributed Distributed (TD-MLP), Autoencoder (AE)を評価した。
オーバーフィッティングに対処するために、早期停止、ニューロンのドロップアウト、L1、L2の正規化といった規則化技術が適用される。
- 参考スコア(独自算出の注目度): 6.857122511301731
- License:
- Abstract: The increasing focus on predicting renewable energy production aligns with advancements in deep learning (DL). The inherent variability of renewable sources and the complexity of prediction methods require robust approaches, such as DL models, in the renewable energy sector. DL models are preferred over traditional machine learning (ML) because they capture complex, nonlinear relationships in renewable energy datasets. This study examines key factors influencing DL technique accuracy, including sampling and hyperparameter optimization, by comparing various methods and training and test ratios within a DL framework. Seven machine learning methods, LSTM, Stacked LSTM, CNN, CNN-LSTM, DNN, Time-Distributed MLP (TD-MLP), and Autoencoder (AE), are evaluated using a dataset combining weather and photovoltaic power output data from 12 locations. Regularization techniques such as early stopping, neuron dropout, L1 and L2 regularization are applied to address overfitting. The results demonstrate that the combination of early stopping, dropout, and L1 regularization provides the best performance to reduce overfitting in the CNN and TD-MLP models with larger training set, while the combination of early stopping, dropout, and L2 regularization is the most effective to reduce the overfitting in CNN-LSTM and AE models with smaller training set.
- Abstract(参考訳): 再生可能エネルギー生産の予測への焦点の増大は、ディープラーニング(DL)の進歩と一致している。
再生可能エネルギーセクターにおける再生可能エネルギー源の性質と予測法の複雑さは、DLモデルのような堅牢なアプローチを必要とする。
DLモデルは、再生可能エネルギーデータセットにおける複雑な非線形関係をキャプチャするため、従来の機械学習(ML)よりも好まれる。
本研究では,DLフレームワーク内の各種手法とトレーニング,テスト比率を比較し,サンプリングとハイパーパラメータ最適化を含むDLテクニックの精度に影響を与える重要な要因について検討した。
TD-MLP(Time-Distributed MLP)とオートエンコーダ(Autoencoder)の7つの機械学習手法,LSTM, Stacked LSTM, CNN, CNN-LSTM, DNN, Time-Distributed MLP (TD-MLP), Autoencoder (AE) を,12カ所の気象と太陽光発電の出力データを組み合わせたデータセットを用いて評価した。
オーバーフィッティングに対処するために、早期停止、ニューロンのドロップアウト、L1、L2の正規化といった規則化技術が適用される。
その結果、早期停止、ドロップアウト、L1正規化の組み合わせは、CNNとTD-MLPモデルのオーバーフィッティングをより大きなトレーニングセットで抑えるのに最適であり、一方、早期停止、ドロップアウト、L2正規化の組み合わせは、トレーニングセットが小さいCNN-LSTMとAEモデルのオーバーフィッティングを減らすのに最も効果的であることを示した。
関連論文リスト
- Weak-to-Strong Extrapolation Expedites Alignment [135.12769233630362]
モデルと人間の嗜好との整合性を高めるために,ExPOと呼ばれる手法を提案する。
ExPOは市販のDPO/RLHFモデルを一貫して改善することを示した。
我々は、アライメントトレーニング中に学んだ報酬信号を増幅するExPOの本質に光を当てた。
論文 参考訳(メタデータ) (2024-04-25T17:39:50Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Curated LLM: Synergy of LLMs and Data Curation for tabular augmentation in low-data regimes [57.62036621319563]
本稿では,Large Language Models (LLMs) の知識を低データ構造におけるデータ拡張に活用したCLLMを紹介する。
従来のジェネレータと比較して,低データ方式におけるCLLMの優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-19T12:34:46Z) - Task Aware Modulation using Representation Learning: An Approach for Few Shot Learning in Environmental Systems [15.40286222692196]
TAM-RLは異種システムにおける少数ショット学習のための新しいフレームワークである。
2つの実環境データセット上でのTAM-RLの評価を行った。
論文 参考訳(メタデータ) (2023-10-07T07:55:22Z) - To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis [50.31589712761807]
大規模言語モデル(LLM)は、事前トレーニング中にトークンに悩まされていることで知られており、Web上の高品質なテキストデータは、LSMのスケーリング制限に近づいている。
本研究では,事前学習データの再学習の結果について検討し,モデルが過度に適合する可能性が示唆された。
第2に, マルチエポック劣化の原因となる要因について検討し, データセットのサイズ, モデルパラメータ, トレーニング目標など, 重要な要因について検討した。
論文 参考訳(メタデータ) (2023-05-22T17:02:15Z) - How robust are pre-trained models to distribution shift? [82.08946007821184]
自己教師付き学習(SSL)と自己エンコーダベースモデル(AE)の相互関係が相互関係に与える影響を示す。
本研究では, 線形ヘッドの潜在バイアスから事前学習したモデルの性能を分離するために, アウト・オブ・ディストリビューション(OOD)データに基づいて訓練された線形ヘッドを用いた新しい評価手法を開発した。
論文 参考訳(メタデータ) (2022-06-17T16:18:28Z) - Improving Rare Word Recognition with LM-aware MWER Training [50.241159623691885]
本稿では,ハイブリッド自己回帰変換器(HAT)モデルを識別訓練フレームワークで学習する際のLMを紹介する。
浅層核融合では,仮説生成と損失計算の両方でLMを用いており,LM対応MWER学習モデルでは相対的な10%の改善が達成されている。
再構成セットアップでは、小さなニューラルネットワークモジュールを学習し、データ依存の方法で核融合重みを生成する。
論文 参考訳(メタデータ) (2022-04-15T17:19:41Z) - An Adaptive Deep Learning Framework for Day-ahead Forecasting of
Photovoltaic Power Generation [0.8702432681310401]
本稿では,従来のデータから一般知識を取得するだけでなく,新たなデータから特定の知識を動的に学習するDLフレームワークである適応LSTM(AD-LSTM)モデルを提案する。
開発したAD-LSTMモデルは,特にコンセプトドリフトの存在下で,オフラインのLSTMモデルよりも高い予測能力を示す。
論文 参考訳(メタデータ) (2021-09-28T02:39:56Z) - A Hybrid Residual Dilated LSTM end Exponential Smoothing Model for
Mid-Term Electric Load Forecasting [1.1602089225841632]
このモデルは指数的平滑化(ETS)、高度なLong Short-Term Memory(LSTM)とアンサンブルを組み合わせたものである。
欧州35か国における月次電力需要時系列のシミュレーション研究により,提案モデルの高性能性が確認された。
論文 参考訳(メタデータ) (2020-03-29T10:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。