論文の概要: Imitation Learning for Intra-Day Power Grid Operation through Topology Actions
- arxiv url: http://arxiv.org/abs/2407.19865v2
- Date: Sun, 18 Aug 2024 09:55:39 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 01:49:20.522018
- Title: Imitation Learning for Intra-Day Power Grid Operation through Topology Actions
- Title(参考訳): トポロジー行動による日内電力グリッド運用のための模擬学習
- Authors: Matthijs de Jong, Jan Viebahn, Yuliya Shapovalova,
- Abstract要約: 本研究では、トポロジ的動作による日頭電力グリッド動作における模倣学習の性能について検討する。
我々は、専門家のステートアクションペアに完全接続ニューラルネットワーク(FCNN)をトレーニングし、それを2つの方法で評価する。
パワーシステムエージェントとして、FCNNは専門家エージェントよりもわずかに劣っている。
- 参考スコア(独自算出の注目度): 0.24578723416255752
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Power grid operation is becoming increasingly complex due to the increase in generation of renewable energy. The recent series of Learning To Run a Power Network (L2RPN) competitions have encouraged the use of artificial agents to assist human dispatchers in operating power grids. In this paper we study the performance of imitation learning for day-ahead power grid operation through topology actions. In particular, we consider two rule-based expert agents: a greedy agent and a N-1 agent. While the latter is more computationally expensive since it takes N-1 safety considerations into account, it exhibits a much higher operational performance. We train a fully-connected neural network (FCNN) on expert state-action pairs and evaluate it in two ways. First, we find that classification accuracy is limited despite extensive hyperparameter tuning, due to class imbalance and class overlap. Second, as a power system agent, the FCNN performs only slightly worse than expert agents. Furthermore, hybrid agents, which incorporate minimal additional simulations, match expert agents' performance with significantly lower computational cost. Consequently, imitation learning shows promise for developing fast, high-performing power grid agents, motivating its further exploration in future L2RPN studies.
- Abstract(参考訳): 再生可能エネルギーの発生の増加により電力グリッドの運用は複雑化しつつある。
近年のL2RPN(Learning To Run a Power Network)コンペティションでは、人間の送電網の運用を支援するために人工エージェントの使用が奨励されている。
本稿では,トポロジ動作による実時間電力グリッド動作における模擬学習の性能について検討する。
特に、グリージーエージェントとN-1エージェントの2つのルールベースの専門家エージェントについて検討する。
N-1の安全性を考慮に入れているため、後者の方が計算コストが高いが、運用性能ははるかに高い。
我々は、専門家のステートアクションペアに完全接続ニューラルネットワーク(FCNN)をトレーニングし、それを2つの方法で評価する。
まず,クラス不均衡とクラス重複のため,広範なハイパーパラメータチューニングにもかかわらず,分類精度が制限されていることを発見した。
第2に、パワーシステムエージェントとして、FCNNは専門家エージェントよりもわずかに劣っている。
さらに、最小限の追加シミュレーションを取り入れたハイブリッドエージェントは、専門家エージェントのパフォーマンスと大幅に低い計算コストで一致させる。
その結果、模倣学習は高速で高性能なグリッドエージェントの開発を約束し、将来のL2RPN研究におけるさらなる探索の動機となっている。
関連論文リスト
- Robust Defense Against Extreme Grid Events Using Dual-Policy Reinforcement Learning Agents [0.0]
強化学習(RL)エージェントは電力グリッドを管理する強力なツールである。
大量のデータを使ってアクションを通知し、フィードバックとして報酬を受け取り、システムに対して好意的な反応を学習する。
この能力は、RL剤の需要が増加している電力ネットワークの脱炭に特に有用である。
論文 参考訳(メタデータ) (2024-11-17T21:30:48Z) - State and Action Factorization in Power Grids [47.65236082304256]
状態と行動成分の相関関係をデータに基づいて推定するドメインに依存しないアルゴリズムを提案する。
このアルゴリズムはGrid2Opシミュレータで得られた電力グリッドベンチマークで検証される。
論文 参考訳(メタデータ) (2024-09-03T15:00:58Z) - Managing power grids through topology actions: A comparative study
between advanced rule-based and reinforcement learning agents [1.8549313085249322]
電力網の運用は、現在の高潮と再生可能エネルギー生産の増加により、ますます複雑になっている。
強化学習(Reinforcement Learning)は効率的かつ信頼性の高い手法であり,グリッドの自動操作の可能性も高いことが示されている。
本稿では、Binbinchenから提出されたエージェントを分析し、RLとルールベースのアプローチの両方において、エージェントを改善するための新しい戦略を提供する。
論文 参考訳(メタデータ) (2023-04-03T07:34:43Z) - Sparse MoE as the New Dropout: Scaling Dense and Self-Slimmable
Transformers [107.3726071306935]
そこで我々は,SMoE-Dropoutというプラグイン・アンド・プレイ・トレーニング・フレームワークを提案する。
SMoE-Dropoutはランダムで固定されたルータネットワークで構成され、エキスパートを活性化し、トレーニングが進むにつれて、アクティベートされたエキスパート数を徐々に増加させる。
本実験では,SMoE-Dropout の高密度トレーニングベースラインと等価パラメータ数との比較により,SMoE-Dropout の優れた性能と計算精度を実証した。
論文 参考訳(メタデータ) (2023-03-02T22:12:51Z) - Reinforcement Learning Based Power Grid Day-Ahead Planning and
AI-Assisted Control [0.27998963147546135]
本稿では,再分散エージェントと機械学習に基づく最適化エージェントを組み合わせた渋滞管理手法を提案する。
典型的な再配置専用エージェントと比較して、シミュレーショングリッドの動作を長く保ちながら、同時に運用コストを削減できた。
本研究の目的は,この有望な技術を電力グリッド運用の現実に近づけることである。
論文 参考訳(メタデータ) (2023-02-15T13:38:40Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Training Spiking Neural Networks with Local Tandem Learning [96.32026780517097]
スパイキングニューラルネットワーク(SNN)は、前者よりも生物学的に可塑性でエネルギー効率が高いことが示されている。
本稿では,局所タンデム学習(Local Tandem Learning, LTL)と呼ばれる一般化学習規則を提案する。
CIFAR-10データセット上の5つのトレーニングエポック内に高速なネットワーク収束を示すとともに,計算複雑性が低い。
論文 参考訳(メタデータ) (2022-10-10T10:05:00Z) - Learning Dynamics and Generalization in Reinforcement Learning [59.530058000689884]
時間差学習は, エージェントが訓練の初期段階において, 値関数の非平滑成分を適合させるのに役立つことを理論的に示す。
本研究では,高密度報酬タスクの時間差アルゴリズムを用いて学習したニューラルネットワークが,ランダムなネットワークや政策手法で学習した勾配ネットワークよりも,状態間の一般化が弱いことを示す。
論文 参考訳(メタデータ) (2022-06-05T08:49:16Z) - Retrieval-Augmented Reinforcement Learning [63.32076191982944]
過去の経験のデータセットを最適な行動にマップするために、ネットワークをトレーニングします。
検索プロセスは、現在のコンテキストで有用なデータセットから情報を取得するために訓練される。
検索強化R2D2はベースラインR2D2エージェントよりもかなり高速に学習し,より高いスコアを得ることを示す。
論文 参考訳(メタデータ) (2022-02-17T02:44:05Z) - Adversarial Training for a Continuous Robustness Control Problem in
Power Systems [1.0742675209112622]
今後のサイバー物理パワーシステムのコントローラ設計において、堅牢性を注入するための新たな敵対的トレーニングアプローチを提案します。
敵フレームワークをモデル化し,固定された対向ポリシーの実装を提案し,l2rpn(learning to run a power network)環境上でテストする。
本研究は,L2RPNコンペティションのロバスト性トラックから,提案したトレーニングエージェントの結果を分析した。
論文 参考訳(メタデータ) (2020-12-21T14:42:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。