論文の概要: Personalized Lane Change Decision Algorithm Using Deep Reinforcement
Learning Approach
- arxiv url: http://arxiv.org/abs/2112.13646v1
- Date: Fri, 17 Dec 2021 10:16:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-02 08:28:40.158493
- Title: Personalized Lane Change Decision Algorithm Using Deep Reinforcement
Learning Approach
- Title(参考訳): 深部強化学習を用いたパーソナライズされたレーン変更決定アルゴリズム
- Authors: Daofei Li and Ao Liu
- Abstract要約: ドライビング・イン・ザ・ループ実験は6自由度運転シミュレータ上で実施される。
車線変更判定において、運転者の好みを記述するためにパーソナライズ指標が選択される。
深部強化学習(RL)アプローチは、車線変更自動決定のための人間のようなエージェントの設計に適用される。
- 参考スコア(独自算出の注目度): 4.681908782544996
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: To develop driving automation technologies for human, a human-centered
methodology should be adopted for ensured safety and satisfactory user
experience. Automated lane change decision in dense highway traffic is
challenging, especially when considering the personalized preferences of
different drivers. To fulfill human driver centered decision algorithm
development, we carry out driver-in-the-loop experiments on a
6-Degree-of-Freedom driving simulator. Based on the analysis of the lane change
data by drivers of three specific styles,personalization indicators are
selected to describe the driver preferences in lane change decision. Then a
deep reinforcement learning (RL) approach is applied to design human-like
agents for automated lane change decision, with refined reward and loss
functions to capture the driver preferences.The trained RL agents and benchmark
agents are tested in a two-lane highway driving scenario, and by comparing the
agents with the specific drivers at the same initial states of lane change, the
statistics show that the proposed algorithm can guarantee higher consistency of
lane change decision preferences. The driver personalization indicators and the
proposed RL-based lane change decision algorithm are promising to contribute in
automated lane change system developing.
- Abstract(参考訳): 人間のための運転自動化技術を開発するためには、安全性とユーザエクスペリエンスの確保のために、人間中心の方法論を採用する必要がある。
高速道路交通における車線変更の自動決定は、特に異なるドライバーのパーソナライズされた好みを考慮すると困難である。
人間の運転中心決定アルゴリズム開発を実現するため,6自由度運転シミュレータ上でドライバ・イン・ザ・ループ実験を行った。
3つの特定のスタイルのドライバによる車線変更データの解析に基づいて、車線変更決定におけるドライバの好みを記述するためにパーソナライズインジケータを選択する。
Then a deep reinforcement learning (RL) approach is applied to design human-like agents for automated lane change decision, with refined reward and loss functions to capture the driver preferences.The trained RL agents and benchmark agents are tested in a two-lane highway driving scenario, and by comparing the agents with the specific drivers at the same initial states of lane change, the statistics show that the proposed algorithm can guarantee higher consistency of lane change decision preferences.
運転者パーソナライズ指標とrlに基づく車線変更決定アルゴリズムは、自動車線変更システムの開発に寄与することを約束している。
関連論文リスト
- DME-Driver: Integrating Human Decision Logic and 3D Scene Perception in
Autonomous Driving [65.04871316921327]
本稿では,自律運転システムの性能と信頼性を高める新しい自律運転システムを提案する。
DME-Driverは、意思決定者として強力な視覚言語モデル、制御信号生成者として計画指向認識モデルを利用する。
このデータセットを利用することで、論理的思考プロセスを通じて高精度な計画精度を実現する。
論文 参考訳(メタデータ) (2024-01-08T03:06:02Z) - DRNet: A Decision-Making Method for Autonomous Lane Changingwith Deep
Reinforcement Learning [7.2282857478457805]
DRNetは、DRLエージェントがシミュレートされた高速道路上で合理的な車線変更を行うことで、運転を学べる新しいDRLベースのフレームワークである。
我々のDRLエージェントは、衝突を起こさずに所望のタスクを学習でき、DDQNや他のベースラインモデルより優れています。
論文 参考訳(メタデータ) (2023-11-02T21:17:52Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - FastRLAP: A System for Learning High-Speed Driving via Deep RL and
Autonomous Practicing [71.76084256567599]
本稿では、自律型小型RCカーを強化学習(RL)を用いた視覚的観察から積極的に駆動するシステムを提案する。
我々のシステムであるFastRLAP (faster lap)は、人間の介入なしに、シミュレーションや専門家によるデモンストレーションを必要とせず、現実世界で自律的に訓練する。
結果として得られたポリシーは、タイミングブレーキや回転の加速度などの突発的な運転スキルを示し、ロボットの動きを妨げる領域を避け、トレーニングの途中で同様の1対1のインタフェースを使用して人間のドライバーのパフォーマンスにアプローチする。
論文 参考訳(メタデータ) (2023-04-19T17:33:47Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Identification of Adaptive Driving Style Preference through Implicit
Inputs in SAE L2 Vehicles [1.497563464566495]
本研究は,マルチモーダル信号を用いたユーザ運転スタイルの嗜好の同定を提案する。
被験者36名を対象に運転シミュレータ実験を行い, 行動, 生理, 状況データを含む広範囲なマルチモーダルデータを収集した。
そこで我々は、好みの運転スタイルを識別するための機械学習モデルを構築し、ユーザの好みを特定する上で、すべてのモダリティが重要であることを確認した。
論文 参考訳(メタデータ) (2022-09-21T17:56:21Z) - Prediction Based Decision Making for Autonomous Highway Driving [3.6818636539023175]
本稿では,予測に基づく深層強化学習(Deep Reinforcement Learning, PDRL)意思決定モデルを提案する。
高速道路運転の意思決定プロセスにおいて、周囲の車両の操作意図を考慮に入れている。
その結果,提案したPDRLモデルでは,衝突数を減少させることで,Deep Reinforcement Learning (DRL)モデルと比較して意思決定性能が向上することがわかった。
論文 参考訳(メタデータ) (2022-09-05T19:28:30Z) - Reinforcement Learning Based Safe Decision Making for Highway Autonomous
Driving [1.995792341399967]
マルチレーン・シングルエージェント環境での自動運転車の安全な意思決定方法を開発した。
提案手法は深層強化学習を用いて,安全な戦術的意思決定のためのハイレベルな方針を実現する。
論文 参考訳(メタデータ) (2021-05-13T19:17:30Z) - End-to-End Intersection Handling using Multi-Agent Deep Reinforcement
Learning [63.56464608571663]
交差点をナビゲートすることは、自動運転車にとって大きな課題の1つです。
本研究では,交通標識のみが提供された交差点をナビゲート可能なシステムの実装に着目する。
本研究では,時間ステップ毎に加速度と操舵角を予測するためのニューラルネットワークの訓練に用いる,モデルフリーの連続学習アルゴリズムを用いたマルチエージェントシステムを提案する。
論文 参考訳(メタデータ) (2021-04-28T07:54:40Z) - Emergent Road Rules In Multi-Agent Driving Environments [84.82583370858391]
運転環境の要素が道路ルールの出現の原因となるかを分析する。
2つの重要な要因が雑音知覚とエージェントの空間密度であることがわかった。
我々の結果は、世界中の国々が安全で効率的な運転で合意した社会道路規則を実証的に支持する。
論文 参考訳(メタデータ) (2020-11-21T09:43:50Z) - Learning Personalized Discretionary Lane-Change Initiation for Fully
Autonomous Driving Based on Reinforcement Learning [11.54360350026252]
著者らは,完全自律走行車に対する選択車線変更開始の個別的戦術を学習する新しい方法を提案する。
交通状況や自動運転車の動作,車内ユーザのフィードバックから車線変更の開始方法を学ぶために,強化学習技術が使用されている。
論文 参考訳(メタデータ) (2020-10-29T06:21:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。