論文の概要: Transmission Interface Power Flow Adjustment: A Deep Reinforcement Learning Approach based on Multi-task Attribution Map
- arxiv url: http://arxiv.org/abs/2405.15831v1
- Date: Fri, 24 May 2024 08:20:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-29 02:29:48.160504
- Title: Transmission Interface Power Flow Adjustment: A Deep Reinforcement Learning Approach based on Multi-task Attribution Map
- Title(参考訳): 送電インタフェースの電力フロー調整:マルチタスク属性マップに基づく深層強化学習手法
- Authors: Shunyu Liu, Wei Luo, Yanzhen Zhou, Kaixuan Chen, Quan Zhang, Huating Xu, Qinglai Guo, Mingli Song,
- Abstract要約: 本稿では,データ駆動型深部強化学習(DRL)アプローチを導入し,複数の電力流調整タスクを共同で処理する。
提案手法の中心にはマルチタスク属性マップ (MAM) があり、DRLエージェントは各送信インタフェースタスクを異なる電力系統ノードに明示的に属性付けることができる。
このMAMに基づいて、エージェントは、最適に近い操作コストでマルチタスク調整問題を解決するための効果的な戦略をさらに提供することができる。
- 参考スコア(独自算出の注目度): 33.929818014940054
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transmission interface power flow adjustment is a critical measure to ensure the security and economy operation of power systems. However, conventional model-based adjustment schemes are limited by the increasing variations and uncertainties occur in power systems, where the adjustment problems of different transmission interfaces are often treated as several independent tasks, ignoring their coupling relationship and even leading to conflict decisions. In this paper, we introduce a novel data-driven deep reinforcement learning (DRL) approach, to handle multiple power flow adjustment tasks jointly instead of learning each task from scratch. At the heart of the proposed method is a multi-task attribution map (MAM), which enables the DRL agent to explicitly attribute each transmission interface task to different power system nodes with task-adaptive attention weights. Based on this MAM, the agent can further provide effective strategies to solve the multi-task adjustment problem with a near-optimal operation cost. Simulation results on the IEEE 118-bus system, a realistic 300-bus system in China, and a very large European system with 9241 buses demonstrate that the proposed method significantly improves the performance compared with several baseline methods, and exhibits high interpretability with the learnable MAM.
- Abstract(参考訳): 送電インタフェースの電力フロー調整は、電力システムの安全性と経済性を確保するための重要な手段である。
しかし、従来のモデルベース調整方式は、異なるトランスミッションインタフェースの調整問題を複数の独立したタスクとして扱い、それらの結合関係を無視し、さらには競合決定に至る電力システムにおいて、バリエーションの増加と不確実性によって制限される。
本稿では,各タスクをスクラッチから学習するのではなく,複数の電力フロー調整タスクを協調的に処理する,データ駆動型深部強化学習(DRL)手法を提案する。
提案手法の中心にはマルチタスク属性マップ (MAM) があり、DRLエージェントは各送信インタフェースタスクをタスク適応型注意重み付き異なる電力系統ノードに明示的に属性付けることができる。
このMAMに基づいて、エージェントは、最適に近い操作コストでマルチタスク調整問題を解決するための効果的な戦略をさらに提供することができる。
中国における現実的な300バスシステムであるIEEE 118-busシステムと9241バスを備えた非常に大きなヨーロッパシステムによるシミュレーションの結果、提案手法はいくつかのベースライン方式と比較して性能を著しく改善し、学習可能なMAMと高い解釈性を示した。
関連論文リスト
- Reinforcement Learning with Model Predictive Control for Highway Ramp Metering [14.389086937116582]
この研究は、交通フロー管理を強化するためのモデルベースと学習ベースの戦略の相乗効果について考察する。
制御問題は、適切なステージコスト関数を作成することにより、RLタスクとして定式化される。
RLアルゴリズムの関数近似として MPC 最適問題を利用する MPC ベースの RL アプローチを提案し,オンランプの効率的な制御について検討した。
論文 参考訳(メタデータ) (2023-11-15T09:50:54Z) - Stabilizing Voltage in Power Distribution Networks via Multi-Agent
Reinforcement Learning with Transformer [128.19212716007794]
本稿では,変圧器を用いたマルチエージェント・アクタ・クリティカル・フレームワーク(T-MAAC)を提案する。
さらに、電圧制御タスクに適した新しい補助タスクトレーニングプロセスを採用し、サンプル効率を向上する。
論文 参考訳(メタデータ) (2022-06-08T07:48:42Z) - Over-the-Air Federated Multi-Task Learning via Model Sparsification and
Turbo Compressed Sensing [48.19771515107681]
本稿では,エッジサーバの協調の下で,エッジデバイス上にデプロイされた複数の学習タスクを非直交型フェードチャネルで共有する,オーバー・ザ・エアのFMTLフレームワークを提案する。
OA-FMTLでは、エッジデバイスの局所的な更新はスパース化され、圧縮され、重ね合わせの方法でアップリンクチャネルに送信される。
提案するOA-FMTLフレームワークとM-Turbo-CSアルゴリズムの性能解析を行った。
論文 参考訳(メタデータ) (2022-05-08T08:03:52Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - A Modular and Transferable Reinforcement Learning Framework for the
Fleet Rebalancing Problem [2.299872239734834]
モデルフリー強化学習(RL)に基づく艦隊再バランスのためのモジュラーフレームワークを提案する。
動作領域のグリッド上の分布としてRL状態とアクション空間を定式化し,フレームワークをスケーラブルにする。
実世界の旅行データとネットワークデータを用いた数値実験は、このアプローチがベースライン法よりもいくつかの異なる利点があることを実証している。
論文 参考訳(メタデータ) (2021-05-27T16:32:28Z) - Joint Resource Management for MC-NOMA: A Deep Reinforcement Learning
Approach [39.54978539962088]
本稿では, 共同資源管理(JRM)への新規かつ効果的な深層強化学習(DRL)に基づくアプローチを提案する。
実用的なマルチキャリア非直交多重アクセス(MC-NOMA)システムでは、ハードウェアの感度と不完全な連続干渉キャンセル(SIC)が考慮されます。
DRL-JRM方式はシステムスループットと干渉耐性の観点から既存の方式よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-29T06:52:19Z) - UPDeT: Universal Multi-agent Reinforcement Learning via Policy
Decoupling with Transformers [108.92194081987967]
タスクに適合する1つのアーキテクチャを設計し、汎用的なマルチエージェント強化学習パイプラインを最初に試行する。
従来のRNNモデルとは異なり、トランスフォーマーモデルを用いてフレキシブルなポリシーを生成する。
提案方式はUPDeT(Universal Policy Decoupling Transformer)と名付けられ,動作制限を緩和し,マルチエージェントタスクの決定プロセスをより説明しやすいものにする。
論文 参考訳(メタデータ) (2021-01-20T07:24:24Z) - Controllable Pareto Multi-Task Learning [55.945680594691076]
マルチタスク学習システムは,複数のタスクを同時に解決することを目的としている。
固定されたモデルキャパシティでは、タスクは互いに衝突し、システムは通常、それらすべてを学ぶためにトレードオフをしなければならない。
本研究では,異なるタスク間のリアルタイムなトレードオフ制御を実現するための,新しい制御可能なマルチタスク学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-10-13T11:53:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。