論文の概要: Personalized Lane Change Decision Algorithm Using Deep Reinforcement
Learning Approach
- arxiv url: http://arxiv.org/abs/2112.13646v1
- Date: Fri, 17 Dec 2021 10:16:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-02 08:28:40.158493
- Title: Personalized Lane Change Decision Algorithm Using Deep Reinforcement
Learning Approach
- Title(参考訳): 深部強化学習を用いたパーソナライズされたレーン変更決定アルゴリズム
- Authors: Daofei Li and Ao Liu
- Abstract要約: ドライビング・イン・ザ・ループ実験は6自由度運転シミュレータ上で実施される。
車線変更判定において、運転者の好みを記述するためにパーソナライズ指標が選択される。
深部強化学習(RL)アプローチは、車線変更自動決定のための人間のようなエージェントの設計に適用される。
- 参考スコア(独自算出の注目度): 4.681908782544996
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: To develop driving automation technologies for human, a human-centered
methodology should be adopted for ensured safety and satisfactory user
experience. Automated lane change decision in dense highway traffic is
challenging, especially when considering the personalized preferences of
different drivers. To fulfill human driver centered decision algorithm
development, we carry out driver-in-the-loop experiments on a
6-Degree-of-Freedom driving simulator. Based on the analysis of the lane change
data by drivers of three specific styles,personalization indicators are
selected to describe the driver preferences in lane change decision. Then a
deep reinforcement learning (RL) approach is applied to design human-like
agents for automated lane change decision, with refined reward and loss
functions to capture the driver preferences.The trained RL agents and benchmark
agents are tested in a two-lane highway driving scenario, and by comparing the
agents with the specific drivers at the same initial states of lane change, the
statistics show that the proposed algorithm can guarantee higher consistency of
lane change decision preferences. The driver personalization indicators and the
proposed RL-based lane change decision algorithm are promising to contribute in
automated lane change system developing.
- Abstract(参考訳): 人間のための運転自動化技術を開発するためには、安全性とユーザエクスペリエンスの確保のために、人間中心の方法論を採用する必要がある。
高速道路交通における車線変更の自動決定は、特に異なるドライバーのパーソナライズされた好みを考慮すると困難である。
人間の運転中心決定アルゴリズム開発を実現するため,6自由度運転シミュレータ上でドライバ・イン・ザ・ループ実験を行った。
3つの特定のスタイルのドライバによる車線変更データの解析に基づいて、車線変更決定におけるドライバの好みを記述するためにパーソナライズインジケータを選択する。
Then a deep reinforcement learning (RL) approach is applied to design human-like agents for automated lane change decision, with refined reward and loss functions to capture the driver preferences.The trained RL agents and benchmark agents are tested in a two-lane highway driving scenario, and by comparing the agents with the specific drivers at the same initial states of lane change, the statistics show that the proposed algorithm can guarantee higher consistency of lane change decision preferences.
運転者パーソナライズ指標とrlに基づく車線変更決定アルゴリズムは、自動車線変更システムの開発に寄与することを約束している。
関連論文リスト
- Personalized and Context-aware Route Planning for Edge-assisted Vehicles [11.39182190564773]
グラフニューラルネットワーク(GNN)と深部強化学習(DRL)に基づく新しいアプローチを提案する。
運転者の過去の軌跡を解析することにより,運転者の嗜好の指標として関連する道路属性を分類する。
提案するGNNベースのDRLフレームワークを実環境の道路ネットワークを用いて評価し,ドライバの嗜好に対応する能力を示す。
論文 参考訳(メタデータ) (2024-07-25T12:14:12Z) - Investigating Personalized Driving Behaviors in Dilemma Zones: Analysis and Prediction of Stop-or-Go Decisions [15.786599260846057]
我々は、個々のドライバーの停止決定を予測できるパーソナライズされたトランスフォーマーを開発した。
その結果、パーソナライズされたトランスフォーマーは、ジレンマゾーンにおけるドライバーの意思決定を3.7%から12.6%の精度で予測できることがわかった。
論文 参考訳(メタデータ) (2024-05-06T21:39:25Z) - DriveCoT: Integrating Chain-of-Thought Reasoning with End-to-End Driving [81.04174379726251]
本稿では,DriveCoTというエンド・ツー・エンドの運転データセットを総合的に収集する。
センサーデータ、制御決定、および推論プロセスを示すチェーン・オブ・シークレット・ラベルが含まれている。
我々は,私たちのデータセットに基づいてトレーニングされたDriveCoT-Agentと呼ばれるベースラインモデルを提案し,連鎖予測と最終決定を生成する。
論文 参考訳(メタデータ) (2024-03-25T17:59:01Z) - DME-Driver: Integrating Human Decision Logic and 3D Scene Perception in
Autonomous Driving [65.04871316921327]
本稿では,自律運転システムの性能と信頼性を高める新しい自律運転システムを提案する。
DME-Driverは、意思決定者として強力な視覚言語モデル、制御信号生成者として計画指向認識モデルを利用する。
このデータセットを利用することで、論理的思考プロセスを通じて高精度な計画精度を実現する。
論文 参考訳(メタデータ) (2024-01-08T03:06:02Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Prediction Based Decision Making for Autonomous Highway Driving [3.6818636539023175]
本稿では,予測に基づく深層強化学習(Deep Reinforcement Learning, PDRL)意思決定モデルを提案する。
高速道路運転の意思決定プロセスにおいて、周囲の車両の操作意図を考慮に入れている。
その結果,提案したPDRLモデルでは,衝突数を減少させることで,Deep Reinforcement Learning (DRL)モデルと比較して意思決定性能が向上することがわかった。
論文 参考訳(メタデータ) (2022-09-05T19:28:30Z) - Reinforcement Learning Based Safe Decision Making for Highway Autonomous
Driving [1.995792341399967]
マルチレーン・シングルエージェント環境での自動運転車の安全な意思決定方法を開発した。
提案手法は深層強化学習を用いて,安全な戦術的意思決定のためのハイレベルな方針を実現する。
論文 参考訳(メタデータ) (2021-05-13T19:17:30Z) - Emergent Road Rules In Multi-Agent Driving Environments [84.82583370858391]
運転環境の要素が道路ルールの出現の原因となるかを分析する。
2つの重要な要因が雑音知覚とエージェントの空間密度であることがわかった。
我々の結果は、世界中の国々が安全で効率的な運転で合意した社会道路規則を実証的に支持する。
論文 参考訳(メタデータ) (2020-11-21T09:43:50Z) - Learning Personalized Discretionary Lane-Change Initiation for Fully
Autonomous Driving Based on Reinforcement Learning [11.54360350026252]
著者らは,完全自律走行車に対する選択車線変更開始の個別的戦術を学習する新しい方法を提案する。
交通状況や自動運転車の動作,車内ユーザのフィードバックから車線変更の開始方法を学ぶために,強化学習技術が使用されている。
論文 参考訳(メタデータ) (2020-10-29T06:21:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。