論文の概要: Federated Reinforcement Learning for Real-Time Electric Vehicle Charging
and Discharging Control
- arxiv url: http://arxiv.org/abs/2210.01452v1
- Date: Tue, 4 Oct 2022 08:22:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 15:53:22.286685
- Title: Federated Reinforcement Learning for Real-Time Electric Vehicle Charging
and Discharging Control
- Title(参考訳): リアルタイム電気自動車充電・放電制御のためのフェデレーション強化学習
- Authors: Zixuan Zhang and Yuning Jiang and Yuanming Shi and Ye Shi and Wei Chen
- Abstract要約: 本稿では、動的環境下で異なるEVユーザに対して最適なEV充電/放電制御戦略を開発する。
多様なユーザの行動や動的環境に適合する水平連合強化学習法(HFRL)を提案する。
シミュレーションの結果,提案したリアルタイムEV充電/放電制御戦略は,様々な要因において良好に機能することが示された。
- 参考スコア(独自算出の注目度): 42.17503767317918
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the recent advances in mobile energy storage technologies, electric
vehicles (EVs) have become a crucial part of smart grids. When EVs participate
in the demand response program, the charging cost can be significantly reduced
by taking full advantage of the real-time pricing signals. However, many
stochastic factors exist in the dynamic environment, bringing significant
challenges to design an optimal charging/discharging control strategy. This
paper develops an optimal EV charging/discharging control strategy for
different EV users under dynamic environments to maximize EV users' benefits.
We first formulate this problem as a Markov decision process (MDP). Then we
consider EV users with different behaviors as agents in different environments.
Furthermore, a horizontal federated reinforcement learning (HFRL)-based method
is proposed to fit various users' behaviors and dynamic environments. This
approach can learn an optimal charging/discharging control strategy without
sharing users' profiles. Simulation results illustrate that the proposed
real-time EV charging/discharging control strategy can perform well among
various stochastic factors.
- Abstract(参考訳): 近年のモバイルエネルギー貯蔵技術の進歩により、電気自動車(EV)はスマートグリッドの重要な部分となっている。
EVが需要応答プログラムに参加すると、リアルタイム価格信号のフル活用により充電コストを大幅に削減できる。
しかし、多くの確率的要因が動的環境に存在するため、最適充電/放電制御戦略を設計する上で大きな課題が生じる。
本稿では,EV利用者の利益を最大化するために,動的環境下で異なるEV利用者に対して最適なEV充電/放電制御戦略を開発する。
まずこの問題をマルコフ決定過程(MDP)として定式化する。
次に,異なる動作のevユーザを,異なる環境のエージェントとして考える。
さらに,多様なユーザの行動や動的環境に適合する水平連合強化学習(HFRL)手法を提案する。
このアプローチは、ユーザのプロファイルを共有することなく、最適なチャージ/ディスチャージ制御戦略を学ぶことができる。
シミュレーションの結果,実時間ev充電・放電制御戦略は様々な確率的要因において良好に機能することが示された。
関連論文リスト
- A Deep Q-Learning based Smart Scheduling of EVs for Demand Response in
Smart Grids [0.0]
本研究では、Deep Q-Learningを利用して、マイクログリッド内におけるEVの充電および排出活動のスケジューリングを行うモデルフリーソリューションを提案する。
我々は,EVスケジューリング動作に対する特定の報酬に基づいて状態の値を評価するためにベルマン方程式を適用し,ニューラルネットワークを用いて利用可能な動作に対するQ値とエプシロングレーディアルゴリズムを用いて,目標エネルギープロファイルを満たすために,エクスプロイトと探索のバランスをとる。
論文 参考訳(メタデータ) (2024-01-05T06:04:46Z) - Electric Vehicles coordination for grid balancing using multi-objective
Harris Hawks Optimization [0.0]
再生可能エネルギーの台頭は、地域グリッドのエネルギー収支に技術的および運用上の課題をもたらす電気自動車(EV)へのシフトと一致している。
複数のEVからグリッドへの電力フローの調整には、高度なアルゴリズムとロードバランシング戦略が必要である。
本稿では,安定した電力供給と安定したローカルグリッドの維持を目標として,一日のEVフリート調整モデルを提案する。
論文 参考訳(メタデータ) (2023-11-24T15:50:37Z) - Adaptive Resource Allocation for Virtualized Base Stations in O-RAN with
Online Learning [60.17407932691429]
基地局(vBS)を備えたオープンラジオアクセスネットワークシステムは、柔軟性の向上、コスト削減、ベンダーの多様性、相互運用性のメリットを提供する。
本研究では,予期せぬ「混み合う」環境下であっても,効率的なスループットとvBSエネルギー消費のバランスをとるオンライン学習アルゴリズムを提案する。
提案手法は, 課題のある環境においても, 平均最適性ギャップをゼロにすることで, サブ線形後悔を実現する。
論文 参考訳(メタデータ) (2023-09-04T17:30:21Z) - Federated Reinforcement Learning for Electric Vehicles Charging Control
on Distribution Networks [42.04263644600909]
マルチエージェント深部強化学習(MADRL)はEV充電制御において有効であることが証明されている。
既存のMADRLベースのアプローチでは、配電ネットワークにおけるEV充電/放電の自然な電力フローを考慮できない。
本稿では,マルチEV充電/放電と最適電力流で動作する放射分布ネットワーク(RDN)を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-17T05:34:46Z) - Deep Reinforcement Learning-Based Battery Conditioning Hierarchical V2G
Coordination for Multi-Stakeholder Benefits [3.4529246211079645]
本研究では, 深部強化学習(DRL)とProof of Stakeアルゴリズムに基づく多階層型階層型V2Gコーディネートを提案する。
マルチステークホルダには、電力グリッド、EVアグリゲータ(EVA)、ユーザが含まれており、提案した戦略はマルチステークホルダーのメリットを達成することができる。
論文 参考訳(メタデータ) (2023-08-01T01:19:56Z) - Learning energy-efficient driving behaviors by imitating experts [75.12960180185105]
本稿では,コミュニケーション・センシングにおける制御戦略と現実的限界のギャップを埋める上で,模倣学習が果たす役割について考察する。
擬似学習は、車両の5%に採用されれば、局地的な観測のみを用いて、交通条件の異なるネットワークのエネルギー効率を15%向上させる政策を導出できることを示す。
論文 参考訳(メタデータ) (2022-06-28T17:08:31Z) - Computationally efficient joint coordination of multiple electric
vehicle charging points using reinforcement learning [6.37470346908743]
今日の電力網における大きな課題は、電気自動車(EV)充電による負荷の増加を管理することである。
同時に複数の充電点を協調的に座標する単一ステップの解法を提案する。
我々の新しいRLソリューションは、ビジネス・アズ・ユース・ポリシーと比較して、充電需要調整の性能を40~50%向上させています。
論文 参考訳(メタデータ) (2022-03-26T13:42:57Z) - Investigating Underlying Drivers of Variability in Residential Energy
Usage Patterns with Daily Load Shape Clustering of Smart Meter Data [53.51471969978107]
スマートメータの大規模展開は、日々の負荷パターンの分散を探求する研究の動機となっている。
本稿では,電力消費パターンが変動性を示すメカニズムを明らかにすることを目的とした。
論文 参考訳(メタデータ) (2021-02-16T16:56:27Z) - Risk-Aware Energy Scheduling for Edge Computing with Microgrid: A
Multi-Agent Deep Reinforcement Learning Approach [82.6692222294594]
マイクログリッドを用いたMECネットワークにおけるリスク対応エネルギースケジューリング問題について検討する。
ニューラルネットワークを用いたマルチエージェントディープ強化学習(MADRL)に基づくアドバンテージアクター・クリティック(A3C)アルゴリズムを適用し,その解を導出する。
論文 参考訳(メタデータ) (2020-02-21T02:14:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。