論文の概要: Optimizing Energy Management of Smart Grid using Reinforcement Learning aided by Surrogate models built using Physics-informed Neural Networks
- arxiv url: http://arxiv.org/abs/2510.17380v1
- Date: Mon, 20 Oct 2025 10:17:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:39.40098
- Title: Optimizing Energy Management of Smart Grid using Reinforcement Learning aided by Surrogate models built using Physics-informed Neural Networks
- Title(参考訳): 物理インフォームドニューラルネットワークを用いたサーロゲートモデルを用いた強化学習によるスマートグリッドのエネルギー管理
- Authors: Julen Cestero, Carmine Delle Femine, Kenji S. Muro, Marco Quartulli, Marcello Restelli,
- Abstract要約: Reinforcement Learning (RL)は、スマートグリッドにおける最適電力フローの課題に対処するソリューションとして注目されている。
本稿では,Physics-informed Neural Networks (PINN) を用いて構築したサロゲートモデルを用いて,コストのかかるスマートグリッドシミュレータを置換することで,この問題に対処する。
- 参考スコア(独自算出の注目度): 29.49941497527361
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Optimizing the energy management within a smart grids scenario presents significant challenges, primarily due to the complexity of real-world systems and the intricate interactions among various components. Reinforcement Learning (RL) is gaining prominence as a solution for addressing the challenges of Optimal Power Flow in smart grids. However, RL needs to iterate compulsively throughout a given environment to obtain the optimal policy. This means obtaining samples from a, most likely, costly simulator, which can lead to a sample efficiency problem. In this work, we address this problem by substituting costly smart grid simulators with surrogate models built using Phisics-informed Neural Networks (PINNs), optimizing the RL policy training process by arriving to convergent results in a fraction of the time employed by the original environment.
- Abstract(参考訳): スマートグリッドのシナリオにおけるエネルギー管理の最適化は、主に現実世界のシステムの複雑さと様々なコンポーネント間の複雑な相互作用のために、重大な課題を示す。
Reinforcement Learning (RL)は、スマートグリッドにおける最適電力フローの課題に対処するソリューションとして注目されている。
しかし、RLは最適なポリシーを得るために、与えられた環境を通して強制的に反復する必要がある。
これは、おそらく最もコストのかかるシミュレータからサンプルを取得することを意味しており、サンプル効率の問題につながる可能性がある。
本研究では,Physics-informed Neural Networks (PINNs) を用いて構築したサロゲートモデルを用いて,コストの高いスマートグリッドシミュレータを置換することでこの問題に対処する。
関連論文リスト
- Deep Reinforcement Learning for Optimizing Energy Consumption in Smart Grid Systems [0.9558392439655014]
最適潮流(OPF)問題の解法として強化学習(RL)が提案されている。
本研究では,従来のスマートグリッドシミュレータに代わる物理インフォームドニューラルネットワーク(PINN)を提案する。
その結果、PINNサロゲートの使用は、サロゲートのないRLトレーニングと比較して50%のトレーニングを加速できることがわかった。
論文 参考訳(メタデータ) (2026-02-20T07:52:05Z) - A Context-Free Smart Grid Model Using Complex System Approach [0.0]
スマートグリッドはサイズ、要素、戦略によって異なるシステムに進化するかもしれないが、その基本的な要件や目的は変わらない。
我々は,ゲーム理論と古典的手法を異なるレベルで組み合わせることで,最適化をアクセント化する,スマートグリッドモデリングへの複雑なシステムベースアプローチを提案する。
論文 参考訳(メタデータ) (2025-12-05T19:53:30Z) - Preference Optimization for Combinatorial Optimization Problems [54.87466279363487]
強化学習(Reinforcement Learning, RL)は、ニューラルネットワーク最適化のための強力なツールとして登場した。
大幅な進歩にもかかわらず、既存のRLアプローチは報酬信号の減少や大規模な行動空間における非効率な探索といった課題に直面している。
統計的比較モデルを用いて定量的報酬信号を定性的選好信号に変換する新しい手法であるPreference Optimizationを提案する。
論文 参考訳(メタデータ) (2025-05-13T16:47:00Z) - Intelligent Task Offloading in VANETs: A Hybrid AI-Driven Approach for Low-Latency and Energy Efficiency [2.1877558143992184]
Vehicular Ad-hoc Networks (VANETs) はインテリジェントトランスポートシステムに不可欠なネットワークである。
VANETは、車両が計算タスクを近くのロードサイドユニット(RSU)とリアルタイム処理のためにモバイルエッジコンピューティング(MEC)サーバーにオフロードすることを可能にする。
本研究は、インテリジェントタスクオフロードとリソースアロケーションのための教師付き学習、強化学習、パーティクルスワーム最適化(PSO)を統合したハイブリッドAIフレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-29T13:20:02Z) - Generative Diffusion Models for Resource Allocation in Wireless Networks [74.84410305593006]
我々は、専門家を模倣し、最適な分布から新しいサンプルを生成するポリシーを訓練する。
生成したサンプルの逐次実行により,ほぼ最適性能を実現する。
電力制御のケーススタディにおいて数値的な結果を示す。
論文 参考訳(メタデータ) (2025-04-28T21:44:31Z) - Advancing Generative Artificial Intelligence and Large Language Models for Demand Side Management with Internet of Electric Vehicles [89.07174232698982]
本稿では,大規模言語モデル(LLM)のエネルギー管理への統合について検討する。
本稿では、自動問題定式化、コード生成、カスタマイズ最適化のために、LLMを検索拡張生成で強化する革新的なソリューションを提案する。
本稿では,電気自動車の充電スケジューリングと最適化における提案手法の有効性を示すケーススタディを提案する。
論文 参考訳(メタデータ) (2025-01-26T14:31:03Z) - PeersimGym: An Environment for Solving the Task Offloading Problem with Reinforcement Learning [2.0249250133493195]
計算ネットワークにおけるタスクオフロード戦略の開発と最適化に適した,オープンソースのカスタマイズ可能なシミュレーション環境であるPeersimGymを紹介する。
PeersimGymは、幅広いネットワークトポロジと計算制約をサポートし、TextitPettingZooベースのインターフェイスを統合して、RLエージェントのデプロイを、単体とマルチエージェントの両方で行えるようにしている。
本稿では,分散コンピューティング環境におけるオフロード戦略を大幅に強化するRLベースのアプローチの可能性を示す。
論文 参考訳(メタデータ) (2024-03-26T12:12:44Z) - Adaptive Resource Allocation for Virtualized Base Stations in O-RAN with Online Learning [55.08287089554127]
基地局(vBS)を備えたオープンラジオアクセスネットワークシステムは、柔軟性の向上、コスト削減、ベンダーの多様性、相互運用性のメリットを提供する。
本研究では,予期せぬ「混み合う」環境下であっても,効率的なスループットとvBSエネルギー消費のバランスをとるオンライン学習アルゴリズムを提案する。
提案手法は, 課題のある環境においても, 平均最適性ギャップをゼロにすることで, サブ線形後悔を実現する。
論文 参考訳(メタデータ) (2023-09-04T17:30:21Z) - Approaching Globally Optimal Energy Efficiency in Interference Networks
via Machine Learning [22.926877147296594]
本研究は,マルチセル無線ネットワークにおけるエネルギー効率(EE)を最適化する機械学習手法を提案する。
その結果,この手法は分岐計算テストにより最適値に近いEEを達成できることが判明した。
論文 参考訳(メタデータ) (2022-11-25T08:36:34Z) - Energy-Efficient Multi-Orchestrator Mobile Edge Learning [54.28419430315478]
Mobile Edge Learning(MEL)は、エッジデバイス上で機械学習(ML)モデルの分散トレーニングを特徴とする、協調学習パラダイムである。
MELでは、異なるデータセットで複数の学習タスクが共存する可能性がある。
本稿では, エネルギー消費, 精度, 解複雑性のトレードオフを容易にする軽量なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-02T07:37:10Z) - Optimization-driven Machine Learning for Intelligent Reflecting Surfaces
Assisted Wireless Networks [82.33619654835348]
インテリジェントサーフェス(IRS)は、個々の散乱素子の位相シフトを制御して無線チャネルを再形成するために用いられる。
散乱素子の規模が大きいため、受動ビームフォーミングは一般に高い計算複雑性によって挑戦される。
本稿では、IRS支援無線ネットワークの性能向上のための機械学習(ML)アプローチに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-29T08:39:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。