論文の概要: Intelligent Electric Vehicle Charging Recommendation Based on
Multi-Agent Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2102.07359v1
- Date: Mon, 15 Feb 2021 06:23:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-16 15:37:38.252224
- Title: Intelligent Electric Vehicle Charging Recommendation Based on
Multi-Agent Reinforcement Learning
- Title(参考訳): マルチエージェント強化学習に基づくインテリジェント電気自動車充電勧告
- Authors: Weijia Zhang, Hao Liu, Fan Wang, Tong Xu, Haoran Xin, Dejing Dou, Hui
Xiong
- Abstract要約: 電気自動車(ev)はその環境とエネルギーの持続可能性のために現代の交通システムで選択されている。
多くの都市では、限られた充電インフラとほとんどバランスの取れない充電需要のために、EVドライバーは充電に適した場所を見つけることができません。
公共充電ステーションをインテリジェントに推奨する,マルチエージェント時空間時空間学習(MasterReinforce)というフレームワークを提案する。
- 参考スコア(独自算出の注目度): 42.31586065609373
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Electric Vehicle (EV) has become a preferable choice in the modern
transportation system due to its environmental and energy sustainability.
However, in many large cities, EV drivers often fail to find the proper spots
for charging, because of the limited charging infrastructures and the
spatiotemporally unbalanced charging demands. Indeed, the recent emergence of
deep reinforcement learning provides great potential to improve the charging
experience from various aspects over a long-term horizon. In this paper, we
propose a framework, named Multi-Agent Spatio-Temporal Reinforcement Learning
(Master), for intelligently recommending public accessible charging stations by
jointly considering various long-term spatiotemporal factors. Specifically, by
regarding each charging station as an individual agent, we formulate this
problem as a multi-objective multi-agent reinforcement learning task. We first
develop a multi-agent actor-critic framework with the centralized attentive
critic to coordinate the recommendation between geo-distributed agents.
Moreover, to quantify the influence of future potential charging competition,
we introduce a delayed access strategy to exploit the knowledge of future
charging competition during training. After that, to effectively optimize
multiple learning objectives, we extend the centralized attentive critic to
multi-critics and develop a dynamic gradient re-weighting strategy to
adaptively guide the optimization direction. Finally, extensive experiments on
two real-world datasets demonstrate that Master achieves the best comprehensive
performance compared with nine baseline approaches.
- Abstract(参考訳): 電気自動車(EV)は、環境とエネルギーの持続可能性から、現代の輸送システムにおいて好ましい選択肢となっている。
しかし、多くの大都市では、充電インフラの制限と時空間的にバランスの取れない充電要求のため、EVドライバーは充電の適切な場所を見つけることができないことが多い。
実際、最近の深層強化学習の出現は、長期にわたって様々な側面から充電体験を改善する大きな可能性を秘めている。
本稿では,様々な長期時空間要因を共同で考慮し,公共アクセス可能な充電ステーションをインテリジェントに推薦するマルチエージェント時空間強化学習(master)の枠組みを提案する。
具体的には、各充電ステーションを個別のエージェントとして扱うことにより、この問題を多目的マルチエージェント強化学習タスクとして定式化する。
我々はまず,地理的に分散したエージェント間の推薦を調整するために,集中型注意深い批評家による多エージェントアクター批判フレームワークを開発する。
さらに、将来の充電競争の影響を定量化するために、トレーニング中に将来の充電競争の知識を利用するための遅延アクセス戦略を紹介します。
その後、複数の学習目標を効果的に最適化するために、集中的な注意的批判を多批判に拡張し、最適化方向を適応的に導く動的勾配再重み付け戦略を開発する。
最後に、2つの実世界のデータセットに関する広範な実験は、Masterが9つのベースラインアプローチと比較して最高の総合的なパフォーマンスを達成することを示した。
関連論文リスト
- Centralized vs. Decentralized Multi-Agent Reinforcement Learning for Enhanced Control of Electric Vehicle Charging Networks [1.9188272016043582]
本稿では,MARL(Multi-Agent Reinforcement Learning)フレームワークを用いた分散・協調型充電戦略の新たなアプローチを提案する。
本手法は, 住宅街におけるEV群を対象としたDDPGアルゴリズムに基づいて構築した。
以上の結果から, CTDE-DDPGフレームワークは, 政策のばらつきや訓練の複雑さが高いにもかかわらず, 総変動率を約36パーセント, 充電コストを平均9.1程度削減することにより, 充電効率を著しく向上させることが示唆された。
論文 参考訳(メタデータ) (2024-04-18T21:50:03Z) - Rethinking Closed-loop Training for Autonomous Driving [82.61418945804544]
本研究は,学習エージェントの成功に対する異なるトレーニングベンチマーク設計の影響を分析した最初の実証的研究である。
複数ステップのルックアヘッドで計画を行うRLベースの駆動エージェントであるtrajectory value learning (TRAVL)を提案する。
実験の結果,TRAVLはすべてのベースラインと比較してより速く学習でき,安全な操作が可能であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T17:58:39Z) - Effective Adaptation in Multi-Task Co-Training for Unified Autonomous
Driving [103.745551954983]
本稿では,3つの下流タスクにおけるMoCoやSimCLRなど,多種多様な自己監督手法の転送性能について検討する。
彼らのパフォーマンスは、サブ最適か、あるいはシングルタスクベースラインよりもはるかに遅れていることに気付きました。
汎用マルチタスクトレーニングのための,単純かつ効果的な事前訓練-適応-ファインチューンパラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-19T12:15:31Z) - A new Hyper-heuristic based on Adaptive Simulated Annealing and
Reinforcement Learning for the Capacitated Electric Vehicle Routing Problem [9.655068751758952]
都市部では環境汚染と地球温暖化を減らすために電気自動車(EV)が採用されている。
社会と経済の持続可能性に影響を与え続けているラストマイルロジスティクスの軌道をルーティングするのにはまだ不足がある。
本稿では,高ヒューリスティック適応アニーリングと強化学習というハイパーヒューリスティックなアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-07T11:10:38Z) - Computationally efficient joint coordination of multiple electric
vehicle charging points using reinforcement learning [6.37470346908743]
今日の電力網における大きな課題は、電気自動車(EV)充電による負荷の増加を管理することである。
同時に複数の充電点を協調的に座標する単一ステップの解法を提案する。
我々の新しいRLソリューションは、ビジネス・アズ・ユース・ポリシーと比較して、充電需要調整の性能を40~50%向上させています。
論文 参考訳(メタデータ) (2022-03-26T13:42:57Z) - Optimized cost function for demand response coordination of multiple EV
charging stations using reinforcement learning [6.37470346908743]
我々は、複数の充電ステーションを同時に調整するマルコフ決定プロセス(MDP)に基づいて、RLに関する以前の研究に基づいて構築する。
我々は、基本的に、学習した制御ポリシーに対して、柔軟性を提供しない充電需要を常に満たすよう強制するコスト関数の改善を提案する。
提案したバッチRLのQ-iteration実装を,実世界のデータを用いて,オリジナル(コスト)のQ-iteration実装と厳密に比較する。
論文 参考訳(メタデータ) (2022-03-03T11:22:27Z) - Optimization for Master-UAV-powered Auxiliary-Aerial-IRS-assisted IoT
Networks: An Option-based Multi-agent Hierarchical Deep Reinforcement
Learning Approach [56.84948632954274]
本稿では,無人航空機(MUAV)搭載のIoT(Internet of Things)ネットワークについて検討する。
本稿では、インテリジェント反射面(IRS)を備えた充電可能な補助UAV(AUAV)を用いて、MUAVからの通信信号を強化することを提案する。
提案モデルでは,IoTネットワークの蓄積スループットを最大化するために,これらのエネルギー制限されたUAVの最適協調戦略について検討する。
論文 参考訳(メタデータ) (2021-12-20T15:45:28Z) - An Energy Consumption Model for Electrical Vehicle Networks via Extended
Federated-learning [50.85048976506701]
本稿では,フェデレートラーニングモデルに基づく不安度を測る新しい手法を提案する。
バッテリー消費を推定し、車両ネットワークにエネルギー効率の高いルートプランニングを提供する。
論文 参考訳(メタデータ) (2021-11-13T15:03:44Z) - Learning to Operate an Electric Vehicle Charging Station Considering
Vehicle-grid Integration [4.855689194518905]
本稿では、充電ステーションの利益を最大化するために、新しい集中的アロケーションと分散実行(CADE)強化学習(RL)フレームワークを提案する。
集中配置プロセスでは、EVを待機スポットまたは充電スポットに割り当て、分散実行プロセスでは、各充電器は、共有再生メモリからアクション値関数を学習しながら、独自の充電/放電判定を行う。
数値計算により,提案したCADEフレームワークは計算効率が高く,拡張性も高く,ベースラインモデル予測制御(MPC)よりも優れていた。
論文 参考訳(メタデータ) (2021-11-01T23:10:28Z) - Self-Supervised Reinforcement Learning for Recommender Systems [77.38665506495553]
逐次リコメンデーションタスクのための自己指導型強化学習を提案する。
提案手法は,2つの出力層を持つ標準レコメンデーションモデルを強化する。
このようなアプローチに基づいて、自己監督型Q-ラーニング(SQN)と自己監督型アクター・クライブ(SAC)という2つのフレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-10T11:18:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。