論文の概要: Risk Adversarial Learning System for Connected and Autonomous Vehicle
Charging
- arxiv url: http://arxiv.org/abs/2108.01466v1
- Date: Mon, 2 Aug 2021 02:38:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-04 14:04:39.439534
- Title: Risk Adversarial Learning System for Connected and Autonomous Vehicle
Charging
- Title(参考訳): 連系・自律型自動車充電におけるリスク対応学習システム
- Authors: Md. Shirajum Munir, Ki Tae Kim, Kyi Thar, Dusit Niyato, and Choong
Seon Hong
- Abstract要約: 我々は、コネクテッドかつ自律的な自動車充電インフラ(CAV-CI)のための合理的意思決定支援システム(RDSS)の設計について検討する。
検討されたCAV-CIでは、配電系統オペレーター(DSO)が電気自動車供給装置(EVSE)を配備し、人間駆動のコネクテッドカー(CV)と自動運転車(AV)のためのEV充電設備を提供する。
人力EVによる充電要求は、実際の需要よりもエネルギーと充電時間を必要とすると不合理になる。
我々は,CAV-CIが解決する新たなリスク対向型マルチエージェント学習システム(ALS)を提案する。
- 参考スコア(独自算出の注目度): 43.42105971560163
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, the design of a rational decision support system (RDSS) for a
connected and autonomous vehicle charging infrastructure (CAV-CI) is studied.
In the considered CAV-CI, the distribution system operator (DSO) deploys
electric vehicle supply equipment (EVSE) to provide an EV charging facility for
human-driven connected vehicles (CVs) and autonomous vehicles (AVs). The
charging request by the human-driven EV becomes irrational when it demands more
energy and charging period than its actual need. Therefore, the scheduling
policy of each EVSE must be adaptively accumulated the irrational charging
request to satisfy the charging demand of both CVs and AVs. To tackle this, we
formulate an RDSS problem for the DSO, where the objective is to maximize the
charging capacity utilization by satisfying the laxity risk of the DSO. Thus,
we devise a rational reward maximization problem to adapt the irrational
behavior by CVs in a data-informed manner. We propose a novel risk adversarial
multi-agent learning system (RAMALS) for CAV-CI to solve the formulated RDSS
problem. In RAMALS, the DSO acts as a centralized risk adversarial agent (RAA)
for informing the laxity risk to each EVSE. Subsequently, each EVSE plays the
role of a self-learner agent to adaptively schedule its own EV sessions by
coping advice from RAA. Experiment results show that the proposed RAMALS
affords around 46.6% improvement in charging rate, about 28.6% improvement in
the EVSE's active charging time and at least 33.3% more energy utilization, as
compared to a currently deployed ACN EVSE system, and other baselines.
- Abstract(参考訳): 本稿では,コネクテッド・自動運転車充電インフラ(CAV-CI)のための合理的意思決定支援システム(RDSS)の設計について述べる。
検討されたCAV-CIでは、配電システムオペレーター(DSO)が電気自動車供給装置(EVSE)を配備し、人間駆動のコネクテッドカー(CV)と自動運転車(AV)のためのEV充電設備を提供する。
人力EVによる充電要求は、実際の需要よりもエネルギーと充電時間を必要とすると不合理になる。
したがって、各EVSEのスケジューリングポリシーは、CVとAVの両方の充電要求を満たすために、不合理充電要求を適応的に蓄積しなければならない。
そこで, DSOにおけるRDSS問題を定式化し, DSOの遅延リスクを満たすことにより充電能力利用を最大化することを目的とする。
そこで我々は,データインフォームド方式でCVによる不合理な動作に適応する合理的報酬最大化問題を考案した。
本稿では, 定式化rdss問題を解くために, cav-ci のリスク回避型マルチエージェント学習システム (ramals) を提案する。
RAMALSでは、DSOは各EVSEに毒性リスクを知らせる集中型リスク対抗剤(RAA)として機能する。
その後、各EVSEは自己学習エージェントの役割を担い、RAAからのアドバイスに対処することで、自身のEVセッションを適応的にスケジュールする。
実験の結果、提案されたRAMALSは充電速度が46.6%向上し、EVSEのアクティブ充電時間は約28.6%改善し、現在展開されているACN EVSEシステムや他のベースラインと比較して少なくとも33.3%のエネルギー利用が可能であることが示された。
関連論文リスト
- A Deep Q-Learning based Smart Scheduling of EVs for Demand Response in
Smart Grids [0.0]
本研究では、Deep Q-Learningを利用して、マイクログリッド内におけるEVの充電および排出活動のスケジューリングを行うモデルフリーソリューションを提案する。
我々は,EVスケジューリング動作に対する特定の報酬に基づいて状態の値を評価するためにベルマン方程式を適用し,ニューラルネットワークを用いて利用可能な動作に対するQ値とエプシロングレーディアルゴリズムを用いて,目標エネルギープロファイルを満たすために,エクスプロイトと探索のバランスをとる。
論文 参考訳(メタデータ) (2024-01-05T06:04:46Z) - Charge Manipulation Attacks Against Smart Electric Vehicle Charging Stations and Deep Learning-based Detection Mechanisms [49.37592437398933]
電気自動車充電ステーション(EVCS)は、グリーントランスポートの実現に向けた重要なステップとなる。
我々は、攻撃者がスマート充電操作中に交換された情報を操作しているEV充電に対する充電操作攻撃(CMA)を調査した。
本稿では,EV充電に関わるパラメータを監視してCMAを検出する,教師なしのディープラーニングに基づくメカニズムを提案する。
論文 参考訳(メタデータ) (2023-10-18T18:38:59Z) - An Efficient Distributed Multi-Agent Reinforcement Learning for EV
Charging Network Control [2.5477011559292175]
本稿では,EV所有者のプライバシ保護を優先する分散マルチエージェント強化学習(MARL)充電フレームワークを提案する。
その結果、CTDEフレームワークは、ネットワークコストを削減し、充電ネットワークの性能を向上させることを示した。
論文 参考訳(メタデータ) (2023-08-24T16:53:52Z) - Robust Electric Vehicle Balancing of Autonomous Mobility-On-Demand
System: A Multi-Agent Reinforcement Learning Approach [6.716627474314613]
電気自動車(EAV)は、将来の自動運転モビリティ・オン・デマンド(AMoD)システムで注目を集めている。
EAVのユニークな充電パターンは、E-AMoDシステムにおけるEAVの供給を正確に予測することを困難にしている。
強化学習に基づくE-AMoDバランスアルゴリズムの成功にもかかわらず、EV供給や移動需要による状態の不確実性は未解明のままである。
論文 参考訳(メタデータ) (2023-07-30T13:40:42Z) - Reinforcement Learning based Cyberattack Model for Adaptive Traffic
Signal Controller in Connected Transportation Systems [61.39400591328625]
接続輸送システムにおいて、適応交通信号制御装置(ATSC)は、車両から受信したリアルタイム車両軌跡データを利用して、グリーンタイムを規制する。
この無線接続されたATSCはサイバー攻撃面を増やし、その脆弱性を様々なサイバー攻撃モードに拡大する。
そのようなモードの1つは、攻撃者がネットワーク内で偽の車両を作成する「シビル」攻撃である。
RLエージェントは、シビル車噴射の最適速度を学習し、アプローチの混雑を生じさせるように訓練される
論文 参考訳(メタデータ) (2022-10-31T20:12:17Z) - A new Hyper-heuristic based on Adaptive Simulated Annealing and
Reinforcement Learning for the Capacitated Electric Vehicle Routing Problem [9.655068751758952]
都市部では環境汚染と地球温暖化を減らすために電気自動車(EV)が採用されている。
社会と経済の持続可能性に影響を与え続けているラストマイルロジスティクスの軌道をルーティングするのにはまだ不足がある。
本稿では,高ヒューリスティック適応アニーリングと強化学習というハイパーヒューリスティックなアプローチを提案する。
論文 参考訳(メタデータ) (2022-06-07T11:10:38Z) - Computationally efficient joint coordination of multiple electric
vehicle charging points using reinforcement learning [6.37470346908743]
今日の電力網における大きな課題は、電気自動車(EV)充電による負荷の増加を管理することである。
同時に複数の充電点を協調的に座標する単一ステップの解法を提案する。
我々の新しいRLソリューションは、ビジネス・アズ・ユース・ポリシーと比較して、充電需要調整の性能を40~50%向上させています。
論文 参考訳(メタデータ) (2022-03-26T13:42:57Z) - An Energy Consumption Model for Electrical Vehicle Networks via Extended
Federated-learning [50.85048976506701]
本稿では,フェデレートラーニングモデルに基づく不安度を測る新しい手法を提案する。
バッテリー消費を推定し、車両ネットワークにエネルギー効率の高いルートプランニングを提供する。
論文 参考訳(メタデータ) (2021-11-13T15:03:44Z) - Efficient UAV Trajectory-Planning using Economic Reinforcement Learning [65.91405908268662]
UAV間でタスクを分散するための経済取引に触発された新しい強化学習アルゴリズムであるREPlannerを紹介します。
エージェントが協力し、リソースを競うことができるマルチエージェント経済ゲームとして、パス計画問題を策定します。
UAV協力によるタスク分布の計算を行うため、Swarmサイズの変化に対して非常に耐性が高い。
論文 参考訳(メタデータ) (2021-03-03T20:54:19Z) - Cautious Adaptation For Reinforcement Learning in Safety-Critical
Settings [129.80279257258098]
都市運転のような現実の安全クリティカルな目標設定における強化学習(RL)は危険である。
非安全クリティカルな「ソース」環境でエージェントが最初に訓練する「安全クリティカル適応」タスクセットを提案する。
多様な環境における事前経験がリスクを見積もるためにエージェントに装備するという直感に基づくソリューションアプローチであるCARLを提案する。
論文 参考訳(メタデータ) (2020-08-15T01:40:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。