論文の概要: Exploring grid topology reconfiguration using a simple deep
reinforcement learning approach
- arxiv url: http://arxiv.org/abs/2011.13465v2
- Date: Sat, 17 Apr 2021 12:31:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 12:42:16.289165
- Title: Exploring grid topology reconfiguration using a simple deep
reinforcement learning approach
- Title(参考訳): 簡易深層強化学習手法によるグリッドトポロジ再構成の検討
- Authors: Medha Subramanian, Jan Viebahn, Simon H. Tindemans, Benjamin Donnot,
Antoine Marot
- Abstract要約: 強化学習(Reinforcement Learning, RL)は、オペレータに対してグリッド制御アクションを提案するエージェントをトレーニングするための有望なテクニックである。
本稿では,RLを用いた簡易なベースライン手法を提案する。
このエージェントは、グリッド上の電力の流れを制御するためにトポロジカルスイッチングアクションをとっており、単一のウェル・チョーゼン・シナリオでのみ訓練される。
- 参考スコア(独自算出の注目度): 3.141133678115333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: System operators are faced with increasingly volatile operating conditions.
In order to manage system reliability in a cost-effective manner, control room
operators are turning to computerised decision support tools based on AI and
machine learning. Specifically, Reinforcement Learning (RL) is a promising
technique to train agents that suggest grid control actions to operators. In
this paper, a simple baseline approach is presented using RL to represent an
artificial control room operator that can operate a IEEE 14-bus test case for a
duration of 1 week. This agent takes topological switching actions to control
power flows on the grid, and is trained on only a single well-chosen scenario.
The behaviour of this agent is tested on different time-series of generation
and demand, demonstrating its ability to operate the grid successfully in 965
out of 1000 scenarios. The type and variability of topologies suggested by the
agent are analysed across the test scenarios, demonstrating efficient and
diverse agent behaviour.
- Abstract(参考訳): システムオペレータはますます不安定な運用条件に直面しています。
システム信頼性をコスト効率よく管理するために、制御室オペレーターはAIと機械学習に基づくコンピュータ化された意思決定支援ツールに目を向けている。
具体的には、強化学習(RL)は、オペレータにグリッド制御アクションを提案するエージェントを訓練するための有望なテクニックである。
本稿では, IEEE 14-busテストケースを1週間動作可能な人工制御室演算子を表現するために, RLを用いた簡単なベースライン手法を提案する。
このエージェントは、グリッド上の電力の流れを制御するためにトポロジカルスイッチングアクションを取り、単一の well-chosen シナリオでトレーニングされる。
このエージェントの動作は世代と需要の異なる時系列でテストされ、1000シナリオ中965シナリオでグリッドを正常に動作させる能力を示している。
エージェントが提案するトポロジのタイプと変数は、テストシナリオ全体で分析され、効率的で多様なエージェントの振る舞いを示す。
関連論文リスト
- Autonomous Vehicle Controllers From End-to-End Differentiable Simulation [60.05963742334746]
そこで我々は,AVコントローラのトレーニングにAPG(analytic Policy gradients)アプローチを適用可能なシミュレータを提案し,その設計を行う。
提案するフレームワークは, エージェントがより根底的なポリシーを学ぶのを助けるために, 環境力学の勾配を役立てる, エンド・ツー・エンドの訓練ループに, 微分可能シミュレータを組み込む。
ダイナミクスにおけるパフォーマンスとノイズに対する堅牢性の大幅な改善と、全体としてより直感的なヒューマンライクな処理が見られます。
論文 参考訳(メタデータ) (2024-09-12T11:50:06Z) - Modelling, Positioning, and Deep Reinforcement Learning Path Tracking
Control of Scaled Robotic Vehicles: Design and Experimental Validation [3.807917169053206]
スケールされたロボットカーは通常、車両の状態の推定と制御に特化したタスクを含む階層的な制御機構を備えている。
本稿では, (i) フェデレートされた拡張カルマンフィルタ (FEKF) と (ii) エキスパートデモレータを用いて訓練された新しい深部強化学習 (DRL) パストラッキングコントローラを提案する。
実験により検証されたモデルは、(i)FEKFの設計を支援するために使用され、(ii)DRLに基づく経路追跡アルゴリズムをトレーニングするためのデジタルツインとして機能する。
論文 参考訳(メタデータ) (2024-01-10T14:40:53Z) - Supervised Pretraining Can Learn In-Context Reinforcement Learning [96.62869749926415]
本稿では,意思決定問題における変換器の文脈内学習能力について検討する。
本稿では,変換器が最適動作を予測する教師付き事前学習法であるDPT(Decision-Pretrained Transformer)を導入,研究する。
事前学習した変換器は、オンラインと保守主義の両方をオフラインで探索することで、コンテキスト内における様々なRL問題の解決に利用できる。
論文 参考訳(メタデータ) (2023-06-26T17:58:50Z) - Distributed-Training-and-Execution Multi-Agent Reinforcement Learning
for Power Control in HetNet [48.96004919910818]
We propose a multi-agent Deep reinforcement learning (MADRL) based power control scheme for the HetNet。
エージェント間の協調を促進するために,MADRLシステムのためのペナルティベースQラーニング(PQL)アルゴリズムを開発した。
このように、エージェントのポリシーは、他のエージェントによってより容易に学習でき、より効率的なコラボレーションプロセスをもたらす。
論文 参考訳(メタデータ) (2022-12-15T17:01:56Z) - Efficient Domain Coverage for Vehicles with Second-Order Dynamics via
Multi-Agent Reinforcement Learning [9.939081691797858]
本稿では,2次動的エージェントを含む多エージェント効率ドメインカバレッジ問題に対する強化学習(RL)手法を提案する。
提案するネットワークアーキテクチャには,LSTMと自己注意が組み込まれている。
論文 参考訳(メタデータ) (2022-11-11T01:59:12Z) - Mastering the Unsupervised Reinforcement Learning Benchmark from Pixels [112.63440666617494]
強化学習アルゴリズムは成功するが、エージェントと環境の間の大量の相互作用を必要とする。
本稿では,教師なしモデルベースRLを用いてエージェントを事前学習する手法を提案する。
我々はReal-Word RLベンチマークにおいて、適応中の環境摂動に対する抵抗性を示唆し、堅牢な性能を示す。
論文 参考訳(メタデータ) (2022-09-24T14:22:29Z) - Constrained Reinforcement Learning for Robotics via Scenario-Based
Programming [64.07167316957533]
DRLをベースとしたエージェントの性能を最適化し,その動作を保証することが重要である。
本稿では,ドメイン知識を制約付きDRLトレーニングループに組み込む新しい手法を提案する。
我々の実験は、専門家の知識を活用するために我々のアプローチを用いることで、エージェントの安全性と性能が劇的に向上することを示した。
論文 参考訳(メタデータ) (2022-06-20T07:19:38Z) - Numerical Demonstration of Multiple Actuator Constraint Enforcement
Algorithm for a Molten Salt Loop [5.6006269492683725]
溶融塩ループの自律制御に対して、解釈可能で適応可能なデータ駆動機械学習アプローチを実証する。
適応性に対処するために、制御アルゴリズムを使用して、定数と時間依存の制約を強制しながらアクチュエータセットポイントを変更する。
論文 参考訳(メタデータ) (2022-02-04T11:58:40Z) - Curriculum Based Reinforcement Learning of Grid Topology Controllers to
Prevent Thermal Cascading [0.19116784879310028]
本稿では,電力系統演算子のドメイン知識を強化学習フレームワークに統合する方法について述べる。
環境を改良することにより、報酬チューニングを伴うカリキュラムベースのアプローチをトレーニング手順に組み込む。
複数のシナリオに対する並列トレーニングアプローチは、エージェントをいくつかのシナリオに偏りなくし、グリッド操作の自然変動に対して堅牢にするために使用される。
論文 参考訳(メタデータ) (2021-12-18T20:32:05Z) - Text Generation with Efficient (Soft) Q-Learning [91.47743595382758]
強化学習(RL)は、任意のタスクメトリクスを報酬としてプラグインすることで、より柔軟なソリューションを提供する。
ソフトQ-ラーニングの観点からテキスト生成のための新しいRL式を導入する。
雑音/負の例から学習し、敵攻撃、即時生成など、幅広いタスクにアプローチを適用する。
論文 参考訳(メタデータ) (2021-06-14T18:48:40Z) - Rethink AI-based Power Grid Control: Diving Into Algorithm Design [6.194042945960622]
本稿では、アルゴリズム選択、状態空間表現、および報酬工学の側面からDRLベースの電圧制御の詳細な分析について述べる。
本稿では,電力グリッドの動作点を直接効果的な動作にマッピングする模倣学習に基づく新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-12-23T23:38:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。