論文の概要: Computationally efficient joint coordination of multiple electric
vehicle charging points using reinforcement learning
- arxiv url: http://arxiv.org/abs/2203.14078v1
- Date: Sat, 26 Mar 2022 13:42:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-03 01:14:06.190588
- Title: Computationally efficient joint coordination of multiple electric
vehicle charging points using reinforcement learning
- Title(参考訳): 強化学習を用いた複数電気自動車充電点の計算効率向上
- Authors: Manu Lahariya, Nasrin Sadeghianpourhamami and Chris Develder
- Abstract要約: 今日の電力網における大きな課題は、電気自動車(EV)充電による負荷の増加を管理することである。
同時に複数の充電点を協調的に座標する単一ステップの解法を提案する。
我々の新しいRLソリューションは、ビジネス・アズ・ユース・ポリシーと比較して、充電需要調整の性能を40~50%向上させています。
- 参考スコア(独自算出の注目度): 6.37470346908743
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A major challenge in todays power grid is to manage the increasing load from
electric vehicle (EV) charging. Demand response (DR) solutions aim to exploit
flexibility therein, i.e., the ability to shift EV charging in time and thus
avoid excessive peaks or achieve better balancing. Whereas the majority of
existing research works either focus on control strategies for a single EV
charger, or use a multi-step approach (e.g., a first high level aggregate
control decision step, followed by individual EV control decisions), we rather
propose a single-step solution that jointly coordinates multiple charging
points at once. In this paper, we further refine an initial proposal using
reinforcement learning (RL), specifically addressing computational challenges
that would limit its deployment in practice. More precisely, we design a new
Markov decision process (MDP) formulation of the EV charging coordination
process, exhibiting only linear space and time complexity (as opposed to the
earlier quadratic space complexity). We thus improve upon earlier
state-of-the-art, demonstrating 30% reduction of training time in our case
study using real-world EV charging session data. Yet, we do not sacrifice the
resulting performance in meeting the DR objectives: our new RL solutions still
improve the performance of charging demand coordination by 40-50% compared to a
business-as-usual policy (that charges EV fully upon arrival) and 20-30%
compared to a heuristic policy (that uniformly spreads individual EV charging
over time).
- Abstract(参考訳): 今日の電力網の大きな課題は、電気自動車(EV)充電による負荷の増加を管理することである。
需要応答(DR)ソリューションは、柔軟性、すなわちEV充電を時間とともにシフトさせ、過剰なピークを避けたり、バランスを改善する能力を活用することを目的としている。
既存の研究の多くは、1つのEV充電器の制御戦略に焦点をあてるか、複数段階のアプローチ(例えば、第一段階の集合制御決定ステップ、そして個別のEV制御決定)を用いるかのどちらかであるが、我々は、一度に複数の充電ポイントを協調的に調整するシングルステップのソリューションを提案する。
本稿では,その運用を制限する計算課題を特に解決するために,強化学習(rl)を用いた初期提案をさらに洗練する。
より正確には、EV充電調整プロセスの新しいマルコフ決定プロセス(MDP)を設計し、(以前の二次空間複雑性とは対照的に)線形空間と時間複雑性のみを示す。
そこで我々は,実際のEV充電セッションデータを用いたケーススタディにおいて,トレーニング時間の30%削減を実証した。
当社の新しいRLソリューションは、ビジネス・アズ・ユース・ポリシー(EVの到着時に完全課金する)とヒューリスティック・ポリシー(個別EVの充電を時間とともに均一に展開する)の20-30%に比べて、充電需要調整のパフォーマンスを40-50%向上させています。
関連論文リスト
- Centralized vs. Decentralized Multi-Agent Reinforcement Learning for Enhanced Control of Electric Vehicle Charging Networks [1.9188272016043582]
本稿では,MARL(Multi-Agent Reinforcement Learning)フレームワークを用いた分散・協調型充電戦略の新たなアプローチを提案する。
本手法は, 住宅街におけるEV群を対象としたDDPGアルゴリズムに基づいて構築した。
以上の結果から, CTDE-DDPGフレームワークは, 政策のばらつきや訓練の複雑さが高いにもかかわらず, 総変動率を約36パーセント, 充電コストを平均9.1程度削減することにより, 充電効率を著しく向上させることが示唆された。
論文 参考訳(メタデータ) (2024-04-18T21:50:03Z) - Charge Manipulation Attacks Against Smart Electric Vehicle Charging Stations and Deep Learning-based Detection Mechanisms [49.37592437398933]
電気自動車充電ステーション(EVCS)は、グリーントランスポートの実現に向けた重要なステップとなる。
我々は、攻撃者がスマート充電操作中に交換された情報を操作しているEV充電に対する充電操作攻撃(CMA)を調査した。
本稿では,EV充電に関わるパラメータを監視してCMAを検出する,教師なしのディープラーニングに基づくメカニズムを提案する。
論文 参考訳(メタデータ) (2023-10-18T18:38:59Z) - Federated Reinforcement Learning for Electric Vehicles Charging Control
on Distribution Networks [42.04263644600909]
マルチエージェント深部強化学習(MADRL)はEV充電制御において有効であることが証明されている。
既存のMADRLベースのアプローチでは、配電ネットワークにおけるEV充電/放電の自然な電力フローを考慮できない。
本稿では,マルチEV充電/放電と最適電力流で動作する放射分布ネットワーク(RDN)を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2023-08-17T05:34:46Z) - Federated Reinforcement Learning for Real-Time Electric Vehicle Charging
and Discharging Control [42.17503767317918]
本稿では、動的環境下で異なるEVユーザに対して最適なEV充電/放電制御戦略を開発する。
多様なユーザの行動や動的環境に適合する水平連合強化学習法(HFRL)を提案する。
シミュレーションの結果,提案したリアルタイムEV充電/放電制御戦略は,様々な要因において良好に機能することが示された。
論文 参考訳(メタデータ) (2022-10-04T08:22:46Z) - A Multi-Objective approach to the Electric Vehicle Routing Problem [0.0]
電気自動車ルーティング問題(EVRP)は、燃料ベースの車からより健康的で効率的な電気自動車(EV)に移行するために、研究者や工業者から大きな関心を集めている。
以前の作業では、ロジスティクスや配送関連のソリューションをターゲットにしており、複数の停止を行った後、同質の商用EVが最初のポイントに戻らなければならない。
我々は、旅行時間と充電の累積コストを最小化する多目的最適化を行う。
論文 参考訳(メタデータ) (2022-08-26T05:09:59Z) - Optimized cost function for demand response coordination of multiple EV
charging stations using reinforcement learning [6.37470346908743]
我々は、複数の充電ステーションを同時に調整するマルコフ決定プロセス(MDP)に基づいて、RLに関する以前の研究に基づいて構築する。
我々は、基本的に、学習した制御ポリシーに対して、柔軟性を提供しない充電需要を常に満たすよう強制するコスト関数の改善を提案する。
提案したバッチRLのQ-iteration実装を,実世界のデータを用いて,オリジナル(コスト)のQ-iteration実装と厳密に比較する。
論文 参考訳(メタデータ) (2022-03-03T11:22:27Z) - Learning to Operate an Electric Vehicle Charging Station Considering
Vehicle-grid Integration [4.855689194518905]
本稿では、充電ステーションの利益を最大化するために、新しい集中的アロケーションと分散実行(CADE)強化学習(RL)フレームワークを提案する。
集中配置プロセスでは、EVを待機スポットまたは充電スポットに割り当て、分散実行プロセスでは、各充電器は、共有再生メモリからアクション値関数を学習しながら、独自の充電/放電判定を行う。
数値計算により,提案したCADEフレームワークは計算効率が高く,拡張性も高く,ベースラインモデル予測制御(MPC)よりも優れていた。
論文 参考訳(メタデータ) (2021-11-01T23:10:28Z) - Risk Adversarial Learning System for Connected and Autonomous Vehicle
Charging [43.42105971560163]
我々は、コネクテッドかつ自律的な自動車充電インフラ(CAV-CI)のための合理的意思決定支援システム(RDSS)の設計について検討する。
検討されたCAV-CIでは、配電系統オペレーター(DSO)が電気自動車供給装置(EVSE)を配備し、人間駆動のコネクテッドカー(CV)と自動運転車(AV)のためのEV充電設備を提供する。
人力EVによる充電要求は、実際の需要よりもエネルギーと充電時間を必要とすると不合理になる。
我々は,CAV-CIが解決する新たなリスク対向型マルチエージェント学習システム(ALS)を提案する。
論文 参考訳(メタデータ) (2021-08-02T02:38:15Z) - Intelligent Electric Vehicle Charging Recommendation Based on
Multi-Agent Reinforcement Learning [42.31586065609373]
電気自動車(ev)はその環境とエネルギーの持続可能性のために現代の交通システムで選択されている。
多くの都市では、限られた充電インフラとほとんどバランスの取れない充電需要のために、EVドライバーは充電に適した場所を見つけることができません。
公共充電ステーションをインテリジェントに推奨する,マルチエージェント時空間時空間学習(MasterReinforce)というフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-15T06:23:59Z) - Mobile Cellular-Connected UAVs: Reinforcement Learning for Sky Limits [71.28712804110974]
本稿では,UAVの切断時間,ハンドオーバ速度,エネルギー消費を低減するため,MAB(Multi-armed bandit)アルゴリズムを提案する。
それぞれの性能指標(PI)が、適切な学習パラメータの範囲を採用することにより、どのように改善されるかを示す。
論文 参考訳(メタデータ) (2020-09-21T12:35:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。