論文の概要: Temporal Prototype-Aware Learning for Active Voltage Control on Power Distribution Networks
- arxiv url: http://arxiv.org/abs/2406.17818v1
- Date: Tue, 25 Jun 2024 08:07:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-27 17:36:24.634840
- Title: Temporal Prototype-Aware Learning for Active Voltage Control on Power Distribution Networks
- Title(参考訳): 配電系統におけるアクティブ電圧制御のための時間的プロトタイプ認識学習
- Authors: Feiyang Xu, Shunyu Liu, Yunpeng Qing, Yihe Zhou, Yuwen Wang, Mingli Song,
- Abstract要約: 電力配電ネットワーク(PDN)のアクティブ電圧制御(AVC)は、電力系統の効率と信頼性を確保するために電圧レベルを安定化することを目的としている。
短時間の訓練軌跡下での時間適応的依存関係を学習するために,TPAと略される新しい時間的プロトタイプ認識学習法を提案する。
- 参考スコア(独自算出の注目度): 28.630650305620197
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Active Voltage Control (AVC) on the Power Distribution Networks (PDNs) aims to stabilize the voltage levels to ensure efficient and reliable operation of power systems. With the increasing integration of distributed energy resources, recent efforts have explored employing multi-agent reinforcement learning (MARL) techniques to realize effective AVC. Existing methods mainly focus on the acquisition of short-term AVC strategies, i.e., only learning AVC within the short-term training trajectories of a singular diurnal cycle. However, due to the dynamic nature of load demands and renewable energy, the operation states of real-world PDNs may exhibit significant distribution shifts across varying timescales (e.g., daily and seasonal changes). This can render those short-term strategies suboptimal or even obsolete when performing continuous AVC over extended periods. In this paper, we propose a novel temporal prototype-aware learning method, abbreviated as TPA, to learn time-adaptive AVC under short-term training trajectories. At the heart of TPA are two complementary components, namely multi-scale dynamic encoder and temporal prototype-aware policy, that can be readily incorporated into various MARL methods. The former component integrates a stacked transformer network to learn underlying temporal dependencies at different timescales of the PDNs, while the latter implements a learnable prototype matching mechanism to construct a dedicated AVC policy that can dynamically adapt to the evolving operation states. Experimental results on the AVC benchmark with different PDN sizes demonstrate that the proposed TPA surpasses the state-of-the-art counterparts not only in terms of control performance but also by offering model transferability. Our code is available at https://github.com/Canyizl/TPA-for-AVC.
- Abstract(参考訳): 電力配電ネットワーク(PDN)のアクティブ電圧制御(AVC)は、電力系統の効率と信頼性を確保するために電圧レベルを安定化することを目的としている。
近年,分散エネルギー資源の統合が進み,効率的なAVCを実現するためにマルチエージェント強化学習(MARL)技術の導入が検討されている。
既存の方法は、主に短期的なAVC戦略の獲得に焦点を当てている。
しかし、負荷要求と再生可能エネルギーの動的な性質により、実世界のPDNの運転状態は、様々な時間スケール(例えば、日と季節の変化)で顕著な分布変化を示す可能性がある。
これにより、これらの短期戦略が、長期にわたって連続的なAVCを実行する際に、最適でないか、あるいは時代遅れになる可能性がある。
本稿では,時間適応型AVCを短期訓練軌道下で学習するための,時間適応型TPA学習法を提案する。
TPAの中心には、2つの補完的なコンポーネント、すなわちマルチスケールの動的エンコーダと、様々なMARLメソッドに容易に組み込むことができる時間的プロトタイプアウェアポリシーがある。
前者のコンポーネントは、PDNの異なる時間スケールで下位の時間的依存関係を学習するためにスタック化されたトランスフォーマーネットワークを統合し、後者は学習可能なプロトタイプマッチング機構を実装し、進化する操作状態に動的に適応可能な専用のAVCポリシーを構築する。
PDNサイズが異なるAVCベンチマーク実験の結果,提案したTPAは制御性能だけでなく,モデル転送性も実現している。
私たちのコードはhttps://github.com/Canyizl/TPA-for-AVC.comで利用可能です。
関連論文リスト
- iPDP: On Partial Dependence Plots in Dynamic Modeling Scenarios [7.772337176239137]
説明可能な人工知能(XAI)では、よく確立された部分依存プロット(PDP)のようなポストホックな説明技法が使用される。
非定常学習環境における時間依存的特徴効果を抽出するために,PDP上に拡張された新しいモデルに依存しないXAIフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-13T13:56:56Z) - Unifying Synergies between Self-supervised Learning and Dynamic
Computation [53.66628188936682]
SSLとDCのパラダイム間の相互作用に関する新しい視点を提示する。
SSL設定において、スクラッチから高密度かつゲートされたサブネットワークを同時に学習することは可能であることを示す。
密集エンコーダとゲートエンコーダの事前学習における共進化は、良好な精度と効率のトレードオフをもたらす。
論文 参考訳(メタデータ) (2023-01-22T17:12:58Z) - Dynamic Interpretable Change Point Detection [9.879634139205569]
TiVaCPDは、時間変化グラフラッソ(Time-Varying Graphical Lasso)を使用して、時間とともに多次元特徴間の相関パターンの変化を特定するアプローチである。
各種CPの同定・特徴化におけるTiVaCPDの性能評価を行い,本手法が実世界のCPDデータセットにおける最先端手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-11-08T04:04:56Z) - Optimization for Master-UAV-powered Auxiliary-Aerial-IRS-assisted IoT
Networks: An Option-based Multi-agent Hierarchical Deep Reinforcement
Learning Approach [56.84948632954274]
本稿では,無人航空機(MUAV)搭載のIoT(Internet of Things)ネットワークについて検討する。
本稿では、インテリジェント反射面(IRS)を備えた充電可能な補助UAV(AUAV)を用いて、MUAVからの通信信号を強化することを提案する。
提案モデルでは,IoTネットワークの蓄積スループットを最大化するために,これらのエネルギー制限されたUAVの最適協調戦略について検討する。
論文 参考訳(メタデータ) (2021-12-20T15:45:28Z) - Layer Pruning on Demand with Intermediate CTC [50.509073206630994]
我々はコネクショニスト時間分類(CTC)に基づくASRの訓練と刈り取り方法を提案する。
本稿では,Transformer-CTCモデルをオンデマンドで様々な深さでプルーニングできることを示し,GPU上でのリアルタイム係数を0.005から0.002に改善した。
論文 参考訳(メタデータ) (2021-06-17T02:40:18Z) - Bi-level Off-policy Reinforcement Learning for Volt/VAR Control
Involving Continuous and Discrete Devices [2.079959811127612]
Volt/Varコントロールでは、スロータイムスケールの離散デバイス(STDD)と高速タイムスケールの連続デバイス(FTCD)の両方が関与する。
従来の最適化手法はシステムの正確なモデルに強く依存しているが、モデル化に対する耐え難い努力のために実用的でない場合もある。
本論文では, この問題をモデルフリーで解くために, RL(バイレベル・オフポリシ強化学習)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-04-13T02:22:43Z) - Efficient Transformers in Reinforcement Learning using Actor-Learner
Distillation [91.05073136215886]
「Actor-Learner Distillation」は、大容量学習者モデルから小容量学習者モデルへ学習の進捗を移す。
Actor-Learner Distillation を用いて,トランスフォーマー学習モデルの明確なサンプル効率向上を再現する,いくつかの挑戦的なメモリ環境を実証する。
論文 参考訳(メタデータ) (2021-04-04T17:56:34Z) - UPDeT: Universal Multi-agent Reinforcement Learning via Policy
Decoupling with Transformers [108.92194081987967]
タスクに適合する1つのアーキテクチャを設計し、汎用的なマルチエージェント強化学習パイプラインを最初に試行する。
従来のRNNモデルとは異なり、トランスフォーマーモデルを用いてフレキシブルなポリシーを生成する。
提案方式はUPDeT(Universal Policy Decoupling Transformer)と名付けられ,動作制限を緩和し,マルチエージェントタスクの決定プロセスをより説明しやすいものにする。
論文 参考訳(メタデータ) (2021-01-20T07:24:24Z) - An Intelligent Control Strategy for buck DC-DC Converter via Deep
Reinforcement Learning [1.4502611532302039]
定電力負荷(CPL)を有するバックDC-DCコンバータの革新的な知的制御戦略を初めて構築する。
DC-DCコンバータでは、マルコフ決定プロセス(MDP)モデルとディープQネットワーク(DQN)アルゴリズムが定義される。
エージェント-環境相互作用を調整するために,モデルフリーの深層強化学習(DRL)制御戦略を適切に設計する。
論文 参考訳(メタデータ) (2020-08-11T06:38:53Z) - Online Multi-agent Reinforcement Learning for Decentralized
Inverter-based Volt-VAR Control [3.260913246106564]
分散Volt/Var制御(VVC)法はアクティブ分散ネットワーク(ADN)において広く研究されている。
本稿では,VVCのためのオンラインマルチエージェント強化学習と分散制御フレームワーク(OLDC)を提案する。
論文 参考訳(メタデータ) (2020-06-23T09:03:46Z) - Online Reinforcement Learning Control by Direct Heuristic Dynamic
Programming: from Time-Driven to Event-Driven [80.94390916562179]
時間駆動学習は、新しいデータが到着すると予測モデルのパラメータを継続的に更新する機械学習手法を指す。
ノイズなどの重要なシステムイベントによる時間駆動型dHDPの更新を防止することが望ましい。
イベント駆動型dHDPアルゴリズムは,従来の時間駆動型dHDPと比較して動作することを示す。
論文 参考訳(メタデータ) (2020-06-16T05:51:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。