論文の概要: Robust Deep Reinforcement Learning for Inverter-based Volt-Var Control in Partially Observable Distribution Networks
- arxiv url: http://arxiv.org/abs/2408.06776v1
- Date: Tue, 13 Aug 2024 10:02:10 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-14 17:56:13.631256
- Title: Robust Deep Reinforcement Learning for Inverter-based Volt-Var Control in Partially Observable Distribution Networks
- Title(参考訳): 部分観測可能な配電系統におけるインバータを用いたボルトバリア制御のためのロバスト深部強化学習
- Authors: Qiong Liu, Ye Guo, Tong Xu,
- Abstract要約: DRLベースのアプローチの大きな問題は、アクティブな分散ネットワークにおける測定デプロイメントの制限である。
このような問題に対処するために,保守的な批評家と代理的な報酬を持つ堅牢なDRLアプローチを提案する。
- 参考スコア(独自算出の注目度): 11.073055284983626
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Inverter-based volt-var control is studied in this paper. One key issue in DRL-based approaches is the limited measurement deployment in active distribution networks, which leads to problems of a partially observable state and unknown reward. To address those problems, this paper proposes a robust DRL approach with a conservative critic and a surrogate reward. The conservative critic utilizes the quantile regression technology to estimate conservative state-action value function based on the partially observable state, which helps to train a robust policy; the surrogate rewards of power loss and voltage violation are designed that can be calculated from the limited measurements. The proposed approach optimizes the power loss of the whole network and the voltage profile of buses with measurable voltages while indirectly improving the voltage profile of other buses. Extensive simulations verify the effectiveness of the robust DRL approach in different limited measurement conditions, even when only the active power injection of the root bus and less than 10% of bus voltages are measurable.
- Abstract(参考訳): 本稿では,インバータを用いたVolt-var制御について述べる。
DRLベースのアプローチにおける重要な問題のひとつは、アクティブな分散ネットワークにおける限られた測定配置であり、これは部分的に観測可能な状態と未知の報酬の問題を引き起こす。
このような問題に対処するために,保守的な批評家と代理的な報酬を持つ堅牢なDRLアプローチを提案する。
保守的評論家は、量子レグレッション技術を用いて、部分的に観測可能な状態に基づいて保守的状態-動作値関数を推定し、堅牢な政策の訓練を支援する。
提案手法は、他のバスの電圧プロファイルを間接的に改善しつつ、測定可能な電圧を持つバスのネットワーク全体の電力損失と電圧プロファイルを最適化する。
ルートバスのアクティブ電力注入とバス電圧の10%未満が測定可能である場合でも, 異なる測定条件下でのロバストDRLアプローチの有効性を検証する。
関連論文リスト
- Diffusion-based Reinforcement Learning via Q-weighted Variational Policy Optimization [55.97310586039358]
拡散モデルは強化学習(Reinforcement Learning, RL)において、その強力な表現力と多モード性に対して広く注目を集めている。
モデルなし拡散に基づくオンラインRLアルゴリズムQ-weighted Variational Policy Optimization (QVPO)を提案する。
具体的には、ある条件下でのオンラインRLにおける政策目標の厳密な下限を証明できるQ重み付き変動損失を導入する。
また,オンラインインタラクションにおける拡散ポリシのばらつきを低減し,サンプル効率を向上させるための効率的な行動ポリシーも開発している。
論文 参考訳(メタデータ) (2024-05-25T10:45:46Z) - Growing Q-Networks: Solving Continuous Control Tasks with Adaptive Control Resolution [51.83951489847344]
ロボット工学の応用において、スムーズな制御信号はシステム摩耗とエネルギー効率を減らすために一般的に好まれる。
本研究では,離散的な動作空間を粗い状態から細かい制御分解能まで拡大することにより,この性能ギャップを埋めることを目的とする。
我々の研究は、値分解とアダプティブ・コントロール・リゾリューションが組み合わさることで、単純な批判のみのアルゴリズムが得られ、連続制御タスクにおいて驚くほど高い性能が得られることを示唆している。
論文 参考訳(メタデータ) (2024-04-05T17:58:37Z) - Blackout Mitigation via Physics-guided RL [17.807967857394406]
本稿では,ブラックアウト防止の究極の目的として,システム異常に応答する修復的制御行動の逐次設計について考察する。
物理誘導型強化学習フレームワークは、リアルタイム・リメディアル・ルックアヘッド決定の効果的なシーケンスを特定するように設計されている。
論文 参考訳(メタデータ) (2024-01-17T23:27:36Z) - Bayesian Reinforcement Learning for Automatic Voltage Control under
Cyber-Induced Uncertainty [0.533024001730262]
本研究では,電力系統制御問題に対するベイズ強化学習(BRL)手法を提案する。
サイバー攻撃環境における不確実性の下での持続的な電圧制御に焦点を当てている。
BRL技術は、様々なRL技術における探索と利用のしきい値を自動的に見つけるのに役立つ。
論文 参考訳(メタデータ) (2023-05-25T20:58:08Z) - Stabilizing Voltage in Power Distribution Networks via Multi-Agent
Reinforcement Learning with Transformer [128.19212716007794]
本稿では,変圧器を用いたマルチエージェント・アクタ・クリティカル・フレームワーク(T-MAAC)を提案する。
さらに、電圧制御タスクに適した新しい補助タスクトレーニングプロセスを採用し、サンプル効率を向上する。
論文 参考訳(メタデータ) (2022-06-08T07:48:42Z) - RORL: Robust Offline Reinforcement Learning via Conservative Smoothing [72.8062448549897]
オフライン強化学習は、複雑な意思決定タスクに大量のオフラインデータを活用できる。
現在のオフラインRLアルゴリズムは一般に、値推定とアクション選択のために保守的に設計されている。
本稿では,ロバストオフライン強化学習(RORL)を提案する。
論文 参考訳(メタデータ) (2022-06-06T18:07:41Z) - Pessimistic Bootstrapping for Uncertainty-Driven Offline Reinforcement
Learning [125.8224674893018]
オフライン強化学習(RL)は、環境を探索することなく、以前に収集したデータセットからポリシーを学ぶことを目的としている。
オフポリシーアルゴリズムをオフラインRLに適用することは、通常、オフ・オブ・ディストリビューション(OOD)アクションによって引き起こされる外挿エラーによって失敗する。
本稿では,PBRL(Pepsimistic Bootstrapping for offline RL)を提案する。
論文 参考訳(メタデータ) (2022-02-23T15:27:16Z) - Safe Reinforcement Learning for Grid Voltage Control [0.0]
緊急時の電力系統の電圧安定性を回復するための標準手法として, 電圧負荷低減が検討されている。
本稿では,制約付き最適化手法とバリア関数に基づく2つの新しい安全なRL手法について論じる。
論文 参考訳(メタデータ) (2021-12-02T18:34:50Z) - Instabilities of Offline RL with Pre-Trained Neural Representation [127.89397629569808]
オフライン強化学習(RL)では、オフラインデータを利用して、評価対象のポリシーのそれとは大きく異なる分布からデータが収集されるシナリオでポリシーを評価する(または学習する)ことを目指しています。
最近の理論的進歩は、そのようなサンプル効率の良いオフラインRLが確かにある強い表現条件が保持されることを示した。
本研究は,オフラインrlメソッドの安定性を評価するために,経験的視点からこれらの問題を考察する。
論文 参考訳(メタデータ) (2021-03-08T18:06:44Z) - Enhancing the Spatio-temporal Observability of Grid-Edge Resources in
Distribution Grids [5.815007821143811]
分散エネルギー資源(DER)の凸時間観測可能性を高めることは,配電網の安全かつ効率的な運用を実現する上で重要である。
本稿では, 異種の測定値の補足強度を活用し, 集合的な住宅負荷回復枠組みについて述べる。
論文 参考訳(メタデータ) (2021-02-15T19:12:54Z) - Deep Reinforcement Learning for Electric Transmission Voltage Control [0.0]
深層強化学習(DRL)として知られる機械学習のサブセットは、人間によって実行される典型的なタスクの実行において、最近約束されている。
本稿では、送電電圧制御問題にDRLを適用し、電圧制御のためのオープンソースのDRL環境を示し、最大500台のバスで大規模に実験を行う。
論文 参考訳(メタデータ) (2020-06-11T18:35:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。