論文の概要: Deep Reinforcement Learning for Optimizing Energy Consumption in Smart Grid Systems
- arxiv url: http://arxiv.org/abs/2602.18531v1
- Date: Fri, 20 Feb 2026 07:52:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.141976
- Title: Deep Reinforcement Learning for Optimizing Energy Consumption in Smart Grid Systems
- Title(参考訳): スマートグリッドシステムにおけるエネルギー消費の最適化のための深層強化学習
- Authors: Abeer Alsheikhi, Amirfarhad Farhadi, Azadeh Zamanifar,
- Abstract要約: 最適潮流(OPF)問題の解法として強化学習(RL)が提案されている。
本研究では,従来のスマートグリッドシミュレータに代わる物理インフォームドニューラルネットワーク(PINN)を提案する。
その結果、PINNサロゲートの使用は、サロゲートのないRLトレーニングと比較して50%のトレーニングを加速できることがわかった。
- 参考スコア(独自算出の注目度): 0.9558392439655014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The energy management problem in the context of smart grids is inherently complex due to the interdependencies among diverse system components. Although Reinforcement Learning (RL) has been proposed for solving Optimal Power Flow (OPF) problems, the requirement for iterative interaction with an environment often necessitates computationally expensive simulators, leading to significant sample inefficiency. In this study, these challenges are addressed through the use of Physics-Informed Neural Networks (PINNs), which can replace conventional and costly smart grid simulators. The RL policy learning process is enhanced so that convergence can be achieved in a fraction of the time required by the original environment. The PINN-based surrogate is compared with other benchmark data-driven surrogate models. By incorporating knowledge of the underlying physical laws, the results show that the PINN surrogate is the only approach considered in this context that can obtain a strong RL policy even without access to samples from the true simulator. The results demonstrate that using PINN surrogates can accelerate training by 50% compared to RL training without a surrogate. This approach enables the rapid generation of performance scores similar to those produced by the original simulator.
- Abstract(参考訳): スマートグリッドの文脈におけるエネルギー管理問題は、様々なシステムコンポーネント間の相互依存のため本質的に複雑である。
Reinforcement Learning (RL) は、OPF(Optimal Power Flow) 問題を解決するために提案されているが、環境との反復的な相互作用の要求は、しばしば計算コストの高いシミュレータを必要とするため、かなりのサンプル非効率をもたらす。
本研究では,従来のスマートグリッドシミュレータを置き換える物理情報ニューラルネットワーク(PINN)を用いて,これらの課題に対処する。
RLポリシー学習プロセスは、元の環境に必要な時間のごく一部で収束を達成できるように拡張される。
PINNベースのサロゲートは他のベンチマークデータ駆動サロゲートモデルと比較される。
基礎となる物理法則の知識を取り入れることで、PINNサロゲートが真のシミュレータからサンプルにアクセスすることなく強力なRLポリシーを得ることのできる唯一のアプローチであることを示す。
その結果、PINNサロゲートの使用は、サロゲートのないRLトレーニングと比較して50%のトレーニングを加速できることが示された。
このアプローチにより、元のシミュレータが生成したものと同様のパフォーマンススコアを高速に生成できる。
関連論文リスト
- Scientific Knowledge-Guided Machine Learning for Vessel Power Prediction: A Comparative Study [0.0]
本研究では,海洋実験からの物理知識とデータ駆動残差学習を統合したハイブリッド・モデリング・フレームワークを提案する。
提案するフレームワークは,気象ルーティング,トリム最適化,エネルギー効率計画などに適用可能な,実用的で効率的な船舶性能監視ツールを提供する。
論文 参考訳(メタデータ) (2026-02-20T18:12:14Z) - Optimizing Energy Management of Smart Grid using Reinforcement Learning aided by Surrogate models built using Physics-informed Neural Networks [29.49941497527361]
Reinforcement Learning (RL)は、スマートグリッドにおける最適電力フローの課題に対処するソリューションとして注目されている。
本稿では,Physics-informed Neural Networks (PINN) を用いて構築したサロゲートモデルを用いて,コストのかかるスマートグリッドシミュレータを置換することで,この問題に対処する。
論文 参考訳(メタデータ) (2025-10-20T10:17:42Z) - Surrogate-Assisted Evolutionary Reinforcement Learning Based on Autoencoder and Hyperbolic Neural Network [17.24129493200616]
本稿では,オートエンコーダ(AE)とハイパボリックニューラルネットワーク(HNN)を統合した新しいサロゲート支援ERLを提案する。
AEは、サロゲートの入力として重要な特徴を抽出しながら、高次元のポリシーを低次元表現に圧縮する。
10個のアタリゲームと4個のムジョコゲームによる実験により,提案手法が従来の手法よりも優れていたことが確認された。
論文 参考訳(メタデータ) (2025-05-26T02:25:17Z) - Enhancing Spectrum Efficiency in 6G Satellite Networks: A GAIL-Powered Policy Learning via Asynchronous Federated Inverse Reinforcement Learning [67.95280175998792]
ビームフォーミング,スペクトルアロケーション,リモートユーザ機器(RUE)アソシエイトを最適化するために,GAILを利用した新しいポリシー学習手法を提案する。
手動チューニングなしで報酬関数を自動的に学習するために、逆RL(IRL)を用いる。
提案手法は従来のRL手法よりも優れており,コンバージェンスと報酬値の14.6%の改善が達成されている。
論文 参考訳(メタデータ) (2024-09-27T13:05:02Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - Energy-Efficient and Real-Time Sensing for Federated Continual Learning via Sample-Driven Control [21.871879862642235]
リアルタイムセンシング(RTS)システムは、現実のダイナミクスに適応するために、継続的に知識を取得し、更新し、統合し、適用しなければならない。
本稿では,データ分散が人工知能(AI)モデルの性能に与える影響について検討する。
本研究では,RTS機能を有するモバイルエッジネットワークを対象としたSCFL(Sample-driven Control for Federated Continual Learning)技術を開発した。
論文 参考訳(メタデータ) (2023-10-11T13:50:28Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Learning to Solve the AC-OPF using Sensitivity-Informed Deep Neural
Networks [52.32646357164739]
最適な電力フロー(ACOPF)のソリューションを解決するために、ディープニューラルネットワーク(DNN)を提案します。
提案されたSIDNNは、幅広いOPFスキームと互換性がある。
他のLearning-to-OPFスキームとシームレスに統合できる。
論文 参考訳(メタデータ) (2021-03-27T00:45:23Z) - Optimization-driven Machine Learning for Intelligent Reflecting Surfaces
Assisted Wireless Networks [82.33619654835348]
インテリジェントサーフェス(IRS)は、個々の散乱素子の位相シフトを制御して無線チャネルを再形成するために用いられる。
散乱素子の規模が大きいため、受動ビームフォーミングは一般に高い計算複雑性によって挑戦される。
本稿では、IRS支援無線ネットワークの性能向上のための機械学習(ML)アプローチに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-29T08:39:43Z) - Model-Driven Beamforming Neural Networks [47.754731555563836]
本稿では、一般データおよびモデル駆動ビームフォーミングニューラルネットワーク(BNN)を紹介する。
様々な学習戦略を示し、DLベースのBNNの複雑さの低減についても論じている。
また、BNNの汎用性を向上させるため、トレーニングセットの強化や伝達学習などの強化手法も提供する。
論文 参考訳(メタデータ) (2020-01-15T12:50:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。