論文の概要: Implicit Sensing in Traffic Optimization: Advanced Deep Reinforcement
Learning Techniques
- arxiv url: http://arxiv.org/abs/2309.14395v1
- Date: Mon, 25 Sep 2023 15:33:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 16:35:55.494606
- Title: Implicit Sensing in Traffic Optimization: Advanced Deep Reinforcement
Learning Techniques
- Title(参考訳): 交通最適化における暗黙のセンシング:高度強化学習技術
- Authors: Emanuel Figetakis, Yahuza Bello, Ahmed Refaey, Lei Lei, Medhat Moussa
- Abstract要約: 本稿では,Deep Reinforcement Learning(DRL)に基づく車追従・車線変更決定制御システムを提案する。
我々は、よく知られたDQNアルゴリズムを用いてRLエージェントを訓練し、適切な判断を下す。
提案したモデルの性能を,エプシロン・グレーディ・ポリシーとボルツマン・ポリシーの2つのポリシーで評価する。
- 参考スコア(独自算出の注目度): 4.042717292629285
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A sudden roadblock on highways due to many reasons such as road maintenance,
accidents, and car repair is a common situation we encounter almost daily.
Autonomous Vehicles (AVs) equipped with sensors that can acquire vehicle
dynamics such as speed, acceleration, and location can make intelligent
decisions to change lanes before reaching a roadblock. A number of literature
studies have examined car-following models and lane-changing models. However,
only a few studies proposed an integrated car-following and lane-changing
model, which has the potential to model practical driving maneuvers. Hence, in
this paper, we present an integrated car-following and lane-changing
decision-control system based on Deep Reinforcement Learning (DRL) to address
this issue. Specifically, we consider a scenario where sudden construction work
will be carried out along a highway. We model the scenario as a Markov Decision
Process (MDP) and employ the well-known DQN algorithm to train the RL agent to
make the appropriate decision accordingly (i.e., either stay in the same lane
or change lanes). To overcome the delay and computational requirement of DRL
algorithms, we adopt an MEC-assisted architecture where the RL agents are
trained on MEC servers. We utilize the highly reputable SUMO simulator and
OPENAI GYM to evaluate the performance of the proposed model under two
policies; {\epsilon}-greedy policy and Boltzmann policy. The results
unequivocally demonstrate that the DQN agent trained using the
{\epsilon}-greedy policy significantly outperforms the one trained with the
Boltzmann policy.
- Abstract(参考訳): 道路の整備、事故、自動車の修理など多くの理由で高速道路の突然の道路遮断は、我々がほぼ毎日直面する一般的な状況である。
自動運転車(AV)は、速度、加速度、位置などの車両のダイナミクスを取得できるセンサーを備えており、道路封鎖に達する前に車線を変更するインテリジェントな決定を下すことができる。
多くの文献研究が車追従モデルと車線変更モデルを調査している。
しかし、実用的な運転操作をモデル化する可能性を秘めた車追従・車線変更モデルを提案した研究はわずかであった。
そこで本稿では,Deep Reinforcement Learning(DRL)に基づく車追従と車線変更による意思決定制御システムについて述べる。
具体的には,高速道路に沿って突然工事を行うシナリオについて考察する。
シナリオをマルコフ決定プロセス(MDP)としてモデル化し、よく知られたDQNアルゴリズムを用いてRLエージェントを訓練し、適切な決定を行う(すなわち、同じ車線に留まるか、車線を変更する)。
DRLアルゴリズムの遅延と計算要求を克服するため、我々はMECサーバ上でRLエージェントをトレーニングするMEC支援アーキテクチャを採用する。
我々は高信頼性SUMOシミュレータとOPENAI GYMを用いて,提案モデルの性能評価を行う。
この結果は、"epsilon"-greedyポリシーを用いて訓練されたdqnエージェントがボルツマンポリシーで訓練されたエージェントを著しく上回っていることを明らかにしている。
関連論文リスト
- HighwayLLM: Decision-Making and Navigation in Highway Driving with RL-Informed Language Model [5.4854443795779355]
本研究は,大型言語モデル(LLM)の推論能力を利用して,エゴ車両の航法における将来の道程を予測する新しい手法であるHighwayLLMを提案する。
我々のアプローチは、事前訓練された強化学習(RL)モデルも利用して、適切なメタレベルアクションに関する意思決定を行い、ハイレベルプランナーとして機能する。
論文 参考訳(メタデータ) (2024-05-22T11:32:37Z) - DRNet: A Decision-Making Method for Autonomous Lane Changingwith Deep
Reinforcement Learning [7.2282857478457805]
DRNetは、DRLエージェントがシミュレートされた高速道路上で合理的な車線変更を行うことで、運転を学べる新しいDRLベースのフレームワークである。
我々のDRLエージェントは、衝突を起こさずに所望のタスクを学習でき、DDQNや他のベースラインモデルより優れています。
論文 参考訳(メタデータ) (2023-11-02T21:17:52Z) - Rethinking Closed-loop Training for Autonomous Driving [82.61418945804544]
本研究は,学習エージェントの成功に対する異なるトレーニングベンチマーク設計の影響を分析した最初の実証的研究である。
複数ステップのルックアヘッドで計画を行うRLベースの駆動エージェントであるtrajectory value learning (TRAVL)を提案する。
実験の結果,TRAVLはすべてのベースラインと比較してより速く学習でき,安全な操作が可能であることがわかった。
論文 参考訳(メタデータ) (2023-06-27T17:58:39Z) - Comprehensive Training and Evaluation on Deep Reinforcement Learning for
Automated Driving in Various Simulated Driving Maneuvers [0.4241054493737716]
本研究では、DQN(Deep Q-networks)とTRPO(Trust Region Policy Optimization)の2つのDRLアルゴリズムの実装、評価、比較を行う。
設計されたComplexRoads環境で訓練されたモデルは、他の運転操作にうまく適応でき、全体的な性能が期待できる。
論文 参考訳(メタデータ) (2023-06-20T11:41:01Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - Reinforcement Learning based Cyberattack Model for Adaptive Traffic
Signal Controller in Connected Transportation Systems [61.39400591328625]
接続輸送システムにおいて、適応交通信号制御装置(ATSC)は、車両から受信したリアルタイム車両軌跡データを利用して、グリーンタイムを規制する。
この無線接続されたATSCはサイバー攻撃面を増やし、その脆弱性を様々なサイバー攻撃モードに拡大する。
そのようなモードの1つは、攻撃者がネットワーク内で偽の車両を作成する「シビル」攻撃である。
RLエージェントは、シビル車噴射の最適速度を学習し、アプローチの混雑を生じさせるように訓練される
論文 参考訳(メタデータ) (2022-10-31T20:12:17Z) - Prediction Based Decision Making for Autonomous Highway Driving [3.6818636539023175]
本稿では,予測に基づく深層強化学習(Deep Reinforcement Learning, PDRL)意思決定モデルを提案する。
高速道路運転の意思決定プロセスにおいて、周囲の車両の操作意図を考慮に入れている。
その結果,提案したPDRLモデルでは,衝突数を減少させることで,Deep Reinforcement Learning (DRL)モデルと比較して意思決定性能が向上することがわかった。
論文 参考訳(メタデータ) (2022-09-05T19:28:30Z) - Verifying Learning-Based Robotic Navigation Systems [61.01217374879221]
有効モデル選択に現代検証エンジンをどのように利用できるかを示す。
具体的には、検証を使用して、最適下行動を示す可能性のあるポリシーを検出し、除外する。
我々の研究は、現実世界のロボットにおける準最適DRLポリシーを認識するための検証バックエンドの使用を初めて実証したものである。
論文 参考訳(メタデータ) (2022-05-26T17:56:43Z) - Causal Imitative Model for Autonomous Driving [85.78593682732836]
慣性および衝突問題に対処するための因果Imitative Model (CIM)を提案する。
CIMは因果モデルを明確に発見し、ポリシーのトレーニングに利用します。
実験の結果,本手法は慣性および衝突速度において従来の手法よりも優れていたことがわかった。
論文 参考訳(メタデータ) (2021-12-07T18:59:15Z) - Combining Reinforcement Learning with Model Predictive Control for
On-Ramp Merging [10.480121529429631]
自律運転における運動計画問題の解法として,モデル予測制御(MPC)と強化学習(RL)の2つの幅広い手法が提案されている。
まず、シミュレーションにより最先端のMPCとRLベースの技術の長所と短所を確立する。
その後、モデルフリーなRLエージェントとMPCソリューションをブレンドして、乗客の快適性、効率性、衝突速度、堅牢性といったすべての指標間のトレードオフを改善できることを示すアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-17T07:42:11Z) - Intelligent Roundabout Insertion using Deep Reinforcement Learning [68.8204255655161]
本稿では,多忙なラウンドアバウンドの入場を交渉できる演習計画モジュールを提案する。
提案されたモジュールは、トレーニングされたニューラルネットワークに基づいて、操作の全期間にわたって、ラウンドアバウンドに入るタイミングと方法を予測する。
論文 参考訳(メタデータ) (2020-01-03T11:16:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。