論文の概要: A Deep Reinforcement Learning-Based Charging Scheduling Approach with
Augmented Lagrangian for Electric Vehicle
- arxiv url: http://arxiv.org/abs/2209.09772v1
- Date: Tue, 20 Sep 2022 14:56:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 17:41:55.760207
- Title: A Deep Reinforcement Learning-Based Charging Scheduling Approach with
Augmented Lagrangian for Electric Vehicle
- Title(参考訳): 電気自動車用強化ラグランジアンを用いた深層強化学習型充電スケジューリング手法
- Authors: Guibin. Chen and Xiaoying. Shi
- Abstract要約: 本稿では,EV充電スケジューリング問題を制約付きマルコフ決定過程(CMDP)として定式化する。
本稿では, CMDP を解くために, 安全な非政治強化学習(RL)手法を提案する。
実世界の電力価格を用いた総合的な数値実験により,提案アルゴリズムは高解最適性と制約コンプライアンスを実現することができることを示した。
- 参考スコア(独自算出の注目度): 2.686271754751717
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper addresses the problem of optimizing charging/discharging schedules
of electric vehicles (EVs) when participate in demand response (DR). As there
exist uncertainties in EVs' remaining energy, arrival and departure time, and
future electricity prices, it is quite difficult to make charging decisions to
minimize charging cost while guarantee that the EV's battery
state-of-the-charge (SOC) is within certain range. To handle with this dilemma,
this paper formulates the EV charging scheduling problem as a constrained
Markov decision process (CMDP). By synergistically combining the augmented
Lagrangian method and soft actor critic algorithm, a novel safe off-policy
reinforcement learning (RL) approach is proposed in this paper to solve the
CMDP. The actor network is updated in a policy gradient manner with the
Lagrangian value function. A double-critics network is adopted to synchronously
estimate the action-value function to avoid overestimation bias. The proposed
algorithm does not require strong convexity guarantee of examined problems and
is sample efficient. Comprehensive numerical experiments with real-world
electricity price demonstrate that our proposed algorithm can achieve high
solution optimality and constraints compliance.
- Abstract(参考訳): 本稿では、需要応答(DR)に参加する際に電気自動車(EV)の充電/放電スケジュールを最適化する問題に対処する。
EVの残エネルギー、到着・出発時間、将来の電気価格に不確実性が存在するため、EVの電池状態(SOC)が一定の範囲内であることを保証しながら充電コストを最小化するために充電決定を行うことは極めて困難である。
本稿では、このジレンマに対処するため、EV充電スケジューリング問題を制約付きマルコフ決定過程(CMDP)として定式化する。
拡張ラグランジアン法とソフトアクター批判アルゴリズムを相乗的に組み合わせることで, CMDPを解くために, 安全な非政治強化学習(RL)手法を提案する。
アクタネットワークは、ラグランジアン値関数と共にポリシー勾配的に更新される。
二重批判ネットワークを用いて、動作値関数を同期的に推定し、過大評価バイアスを回避する。
提案アルゴリズムは, 高い凸性保証を必要としないため, 試料効率がよい。
実世界の電力価格を用いた包括的数値実験により,提案手法が解の最適性と制約の遵守を実現できることを示す。
関連論文リスト
- Centralized vs. Decentralized Multi-Agent Reinforcement Learning for Enhanced Control of Electric Vehicle Charging Networks [1.9188272016043582]
本稿では,MARL(Multi-Agent Reinforcement Learning)フレームワークを用いた分散・協調型充電戦略の新たなアプローチを提案する。
本手法は, 住宅街におけるEV群を対象としたDDPGアルゴリズムに基づいて構築した。
以上の結果から, CTDE-DDPGフレームワークは, 政策のばらつきや訓練の複雑さが高いにもかかわらず, 総変動率を約36パーセント, 充電コストを平均9.1程度削減することにより, 充電効率を著しく向上させることが示唆された。
論文 参考訳(メタデータ) (2024-04-18T21:50:03Z) - Safety-Aware Reinforcement Learning for Electric Vehicle Charging Station Management in Distribution Network [4.842172685255376]
電気自動車(EV)は、調整がない状態での配電系統の運用に重大なリスクをもたらす。
本稿では、EV充電ステーションの管理を目的とした安全対応強化学習(RL)アルゴリズムを提案する。
提案アルゴリズムは制約違反に対する明示的な罰則に依存しないため,ペナルティチューニング係数は不要である。
論文 参考訳(メタデータ) (2024-03-20T01:57:38Z) - Charge Manipulation Attacks Against Smart Electric Vehicle Charging Stations and Deep Learning-based Detection Mechanisms [49.37592437398933]
電気自動車充電ステーション(EVCS)は、グリーントランスポートの実現に向けた重要なステップとなる。
我々は、攻撃者がスマート充電操作中に交換された情報を操作しているEV充電に対する充電操作攻撃(CMA)を調査した。
本稿では,EV充電に関わるパラメータを監視してCMAを検出する,教師なしのディープラーニングに基づくメカニズムを提案する。
論文 参考訳(メタデータ) (2023-10-18T18:38:59Z) - Federated Reinforcement Learning for Electric Vehicles Charging Control
on Distribution Networks [42.04263644600909]
マルチエージェント深部強化学習(MADRL)はEV充電制御において有効であることが証明されている。
既存のMADRLベースのアプローチでは、配電ネットワークにおけるEV充電/放電の自然な電力フローを考慮できない。
本稿では,マルチEV充電/放電と最適電力流で動作する放射分布ネットワーク(RDN)を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-17T05:34:46Z) - GP CC-OPF: Gaussian Process based optimization tool for
Chance-Constrained Optimal Power Flow [54.94701604030199]
Gaussian Process (GP) ベースのChance-Constrained Optimal Flow (CC-OPF) は、電力グリッドにおけるエコノミックディスパッチ(ED)問題のためのオープンソースのPythonコードである。
CC-OPモデルに基づく新しいデータ駆動手法を提案し,複雑性と精度のトレードオフにより大規模な回帰問題を解く。
論文 参考訳(メタデータ) (2023-02-16T17:59:06Z) - Data-Driven Chance Constrained AC-OPF using Hybrid Sparse Gaussian
Processes [57.70237375696411]
入力不確実性を伴う潮流方程式をモデル化するために,スパースプロセスとハイブリッドガウスプロセス(GP)フレームワークを用いた高速データ駆動構成を提案する。
提案手法の有効性は,複数のIEEEテストケースに対して,最大2倍の高速かつ高精度な解を示す数値的な研究によって主張する。
論文 参考訳(メタデータ) (2022-08-30T09:27:59Z) - Data-Driven Stochastic AC-OPF using Gaussian Processes [54.94701604030199]
大量の再生可能エネルギーを電力網に統合することは、おそらく気候変動を遅らせる電力網からの二酸化炭素排出量を減らす最も有効な方法だろう。
本稿では、不確実な入力を組み込むことのできる交流電力流方程式に基づく代替データ駆動方式を提案する。
GPアプローチは、このギャップを交流電力流方程式に閉じるために、単純だが制約のないデータ駆動アプローチを学ぶ。
論文 参考訳(メタデータ) (2022-07-21T23:02:35Z) - Computationally efficient joint coordination of multiple electric
vehicle charging points using reinforcement learning [6.37470346908743]
今日の電力網における大きな課題は、電気自動車(EV)充電による負荷の増加を管理することである。
同時に複数の充電点を協調的に座標する単一ステップの解法を提案する。
我々の新しいRLソリューションは、ビジネス・アズ・ユース・ポリシーと比較して、充電需要調整の性能を40~50%向上させています。
論文 参考訳(メタデータ) (2022-03-26T13:42:57Z) - Efficient Representation for Electric Vehicle Charging Station
Operations using Reinforcement Learning [5.815007821143811]
我々は、EV充電の緊急時、すなわち遅延値に基づくアグリゲーションスキームを開発する。
EVCSの総充電パワーのみを考慮するために、最低遅延第一規則(LLF)が採用されている。
また,同じ最適政策を達成するための等価な状態アグリゲーションを提案する。
論文 参考訳(メタデータ) (2021-08-07T00:34:48Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z) - Risk-Aware Energy Scheduling for Edge Computing with Microgrid: A
Multi-Agent Deep Reinforcement Learning Approach [82.6692222294594]
マイクログリッドを用いたMECネットワークにおけるリスク対応エネルギースケジューリング問題について検討する。
ニューラルネットワークを用いたマルチエージェントディープ強化学習(MADRL)に基づくアドバンテージアクター・クリティック(A3C)アルゴリズムを適用し,その解を導出する。
論文 参考訳(メタデータ) (2020-02-21T02:14:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。