論文の概要: Optimizing Energy Management of Smart Grid using Reinforcement Learning aided by Surrogate models built using Physics-informed Neural Networks
- arxiv url: http://arxiv.org/abs/2510.17380v1
- Date: Mon, 20 Oct 2025 10:17:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.40098
- Title: Optimizing Energy Management of Smart Grid using Reinforcement Learning aided by Surrogate models built using Physics-informed Neural Networks
- Title(参考訳): 物理インフォームドニューラルネットワークを用いたサーロゲートモデルを用いた強化学習によるスマートグリッドのエネルギー管理
- Authors: Julen Cestero, Carmine Delle Femine, Kenji S. Muro, Marco Quartulli, Marcello Restelli,
- Abstract要約: Reinforcement Learning (RL)は、スマートグリッドにおける最適電力フローの課題に対処するソリューションとして注目されている。
本稿では,Physics-informed Neural Networks (PINN) を用いて構築したサロゲートモデルを用いて,コストのかかるスマートグリッドシミュレータを置換することで,この問題に対処する。
- 参考スコア(独自算出の注目度): 29.49941497527361
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimizing the energy management within a smart grids scenario presents significant challenges, primarily due to the complexity of real-world systems and the intricate interactions among various components. Reinforcement Learning (RL) is gaining prominence as a solution for addressing the challenges of Optimal Power Flow in smart grids. However, RL needs to iterate compulsively throughout a given environment to obtain the optimal policy. This means obtaining samples from a, most likely, costly simulator, which can lead to a sample efficiency problem. In this work, we address this problem by substituting costly smart grid simulators with surrogate models built using Phisics-informed Neural Networks (PINNs), optimizing the RL policy training process by arriving to convergent results in a fraction of the time employed by the original environment.
- Abstract(参考訳): スマートグリッドのシナリオにおけるエネルギー管理の最適化は、主に現実世界のシステムの複雑さと様々なコンポーネント間の複雑な相互作用のために、重大な課題を示す。
Reinforcement Learning (RL)は、スマートグリッドにおける最適電力フローの課題に対処するソリューションとして注目されている。
しかし、RLは最適なポリシーを得るために、与えられた環境を通して強制的に反復する必要がある。
これは、おそらく最もコストのかかるシミュレータからサンプルを取得することを意味しており、サンプル効率の問題につながる可能性がある。
本研究では,Physics-informed Neural Networks (PINNs) を用いて構築したサロゲートモデルを用いて,コストの高いスマートグリッドシミュレータを置換することでこの問題に対処する。
関連論文リスト
- Intelligent Task Offloading in VANETs: A Hybrid AI-Driven Approach for Low-Latency and Energy Efficiency [2.1877558143992184]
Vehicular Ad-hoc Networks (VANETs) はインテリジェントトランスポートシステムに不可欠なネットワークである。
VANETは、車両が計算タスクを近くのロードサイドユニット(RSU)とリアルタイム処理のためにモバイルエッジコンピューティング(MEC)サーバーにオフロードすることを可能にする。
本研究は、インテリジェントタスクオフロードとリソースアロケーションのための教師付き学習、強化学習、パーティクルスワーム最適化(PSO)を統合したハイブリッドAIフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-29T13:20:02Z) - Generative Diffusion Models for Resource Allocation in Wireless Networks [74.84410305593006]
我々は、専門家を模倣し、最適な分布から新しいサンプルを生成するポリシーを訓練する。
生成したサンプルの逐次実行により,ほぼ最適性能を実現する。
電力制御のケーススタディにおいて数値的な結果を示す。
論文 参考訳(メタデータ) (2025-04-28T21:44:31Z) - Advancing Generative Artificial Intelligence and Large Language Models for Demand Side Management with Internet of Electric Vehicles [89.07174232698982]
本稿では,大規模言語モデル(LLM)のエネルギー管理への統合について検討する。
本稿では、自動問題定式化、コード生成、カスタマイズ最適化のために、LLMを検索拡張生成で強化する革新的なソリューションを提案する。
本稿では,電気自動車の充電スケジューリングと最適化における提案手法の有効性を示すケーススタディを提案する。
論文 参考訳(メタデータ) (2025-01-26T14:31:03Z) - PeersimGym: An Environment for Solving the Task Offloading Problem with Reinforcement Learning [2.0249250133493195]
計算ネットワークにおけるタスクオフロード戦略の開発と最適化に適した,オープンソースのカスタマイズ可能なシミュレーション環境であるPeersimGymを紹介する。
PeersimGymは、幅広いネットワークトポロジと計算制約をサポートし、TextitPettingZooベースのインターフェイスを統合して、RLエージェントのデプロイを、単体とマルチエージェントの両方で行えるようにしている。
本稿では,分散コンピューティング環境におけるオフロード戦略を大幅に強化するRLベースのアプローチの可能性を示す。
論文 参考訳(メタデータ) (2024-03-26T12:12:44Z) - Approaching Globally Optimal Energy Efficiency in Interference Networks
via Machine Learning [22.926877147296594]
本研究は,マルチセル無線ネットワークにおけるエネルギー効率(EE)を最適化する機械学習手法を提案する。
その結果,この手法は分岐計算テストにより最適値に近いEEを達成できることが判明した。
論文 参考訳(メタデータ) (2022-11-25T08:36:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。