論文の概要: Situation Awareness for Driver-Centric Driving Style Adaptation
- arxiv url: http://arxiv.org/abs/2403.19595v1
- Date: Thu, 28 Mar 2024 17:19:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-29 15:24:55.243903
- Title: Situation Awareness for Driver-Centric Driving Style Adaptation
- Title(参考訳): 運転者中心運転スタイル適応の状況認識
- Authors: Johann Haselberger, Bonifaz Stuhr, Bernhard Schick, Steffen Müller,
- Abstract要約: 本稿では,車両データに基づいて事前学習した視覚特徴エンコーダに基づく状況認識型運転スタイルモデルを提案する。
実験の結果,提案手法は静的な運転スタイルを著しく上回り,高い状況クラスタを形成していることがわかった。
- 参考スコア(独自算出の注目度): 3.568617847600189
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There is evidence that the driving style of an autonomous vehicle is important to increase the acceptance and trust of the passengers. The driving situation has been found to have a significant influence on human driving behavior. However, current driving style models only partially incorporate driving environment information, limiting the alignment between an agent and the given situation. Therefore, we propose a situation-aware driving style model based on different visual feature encoders pretrained on fleet data, as well as driving behavior predictors, which are adapted to the driving style of a specific driver. Our experiments show that the proposed method outperforms static driving styles significantly and forms plausible situation clusters. Furthermore, we found that feature encoders pretrained on our dataset lead to more precise driving behavior modeling. In contrast, feature encoders pretrained supervised and unsupervised on different data sources lead to more specific situation clusters, which can be utilized to constrain and control the driving style adaptation for specific situations. Moreover, in a real-world setting, where driving style adaptation is happening iteratively, we found the MLP-based behavior predictors achieve good performance initially but suffer from catastrophic forgetting. In contrast, behavior predictors based on situationdependent statistics can learn iteratively from continuous data streams by design. Overall, our experiments show that important information for driving behavior prediction is contained within the visual feature encoder. The dataset is publicly available at huggingface.co/datasets/jHaselberger/SADC-Situation-Awareness-for-Driver-Centric-Driving-Style-Adapt ation.
- Abstract(参考訳): 乗客の受け入れと信頼を高めるためには、自動運転車の運転スタイルが重要であるという証拠がある。
運転状況は、人間の運転行動に大きな影響を与えている。
しかし、現在の運転スタイルモデルでは、運転環境情報のみを部分的に含み、エージェントと与えられた状況との整合性を制限する。
そこで本研究では,車両データに基づいて事前訓練された視覚特徴エンコーダと,特定の運転者の運転スタイルに適応した運転行動予測器に基づく状況認識型運転スタイルモデルを提案する。
実験の結果,提案手法は静的な運転スタイルを著しく上回り,高い状況クラスタを形成していることがわかった。
さらに、データセットで事前訓練された機能エンコーダは、より正確な運転行動モデリングにつながることがわかりました。
対照的に、異なるデータソースで事前訓練および教師なしのフィーチャーエンコーダは、特定の状況に対する駆動スタイル適応の制約と制御に使用できる、より具体的な状況クラスタに繋がる。
さらに,運転スタイルの適応が反復的に行われている実世界の環境では,MLPに基づく行動予測器は,当初は良好な性能を達成できたが,破滅的な忘れ込みに悩まされていた。
対照的に、状況依存統計に基づく行動予測器は、設計によって連続データストリームから反復的に学習することができる。
実験の結果,視覚的特徴エンコーダには,運転行動予測のための重要な情報が含まれていることがわかった。
このデータセットは、Huggingface.co/datasets/jHaselberger/SADC-Situation-Awareness-for-Driver-Centric-Driving-Style-Adapt ationで公開されている。
関連論文リスト
- MetaFollower: Adaptable Personalized Autonomous Car Following [63.90050686330677]
適応型パーソナライズされた自動車追従フレームワークであるMetaFollowerを提案する。
まず,モデルに依存しないメタラーニング(MAML)を用いて,様々なCFイベントから共通運転知識を抽出する。
さらに、Long Short-Term Memory (LSTM) と Intelligent Driver Model (IDM) を組み合わせて、時間的不均一性を高い解釈性で反映する。
論文 参考訳(メタデータ) (2024-06-23T15:30:40Z) - Probabilistic Prediction of Longitudinal Trajectory Considering Driving
Heterogeneity with Interpretability [12.929047288003213]
本研究では,混合密度ネットワーク(MDN)を組み合わせた軌道予測フレームワークを提案する。
提案するフレームワークは、広範囲の車両軌道データセットに基づいてテストされる。
論文 参考訳(メタデータ) (2023-12-19T12:56:56Z) - BAT: Behavior-Aware Human-Like Trajectory Prediction for Autonomous
Driving [24.123577277806135]
我々は行動認識軌道予測モデル(BAT)を考案した。
我々のモデルは行動認識、相互作用認識、優先度認識、位置認識モジュールから構成される。
次世代シミュレーション(NGSIM)、ハイウェイドローン(HighD)、ラウンドアバウンドドローン(RounD)、マカオコネクテッド自律運転(MoCAD)データセットにおけるBATの性能を評価する。
論文 参考訳(メタデータ) (2023-12-11T13:27:51Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Cognitive Accident Prediction in Driving Scenes: A Multimodality
Benchmark [77.54411007883962]
本研究では,視覚的観察と運転者の注意に対する人為的な文章記述の認識を効果的に活用し,モデルトレーニングを容易にする認知事故予測手法を提案する。
CAPは、注意テキスト〜ビジョンシフト融合モジュール、注意シーンコンテキスト転送モジュール、運転注意誘導事故予測モジュールによって構成される。
我々は,1,727件の事故ビデオと219万フレーム以上の大規模ベンチマークを構築した。
論文 参考訳(メタデータ) (2022-12-19T11:43:02Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Unsupervised Driving Behavior Analysis using Representation Learning and
Exploiting Group-based Training [15.355045011160804]
運転行動監視は、道路安全の管理と交通事故のリスク低減に重要な役割を果たしている。
現在の研究は、駆動パターンの変動を捉えて、堅牢な駆動パターン解析を行う。
時系列の圧縮表現を学習することで一貫した群を形成する。
論文 参考訳(メタデータ) (2022-05-12T10:27:47Z) - Transferable and Adaptable Driving Behavior Prediction [34.606012573285554]
本研究では,運転行動に対して高品質で伝達可能で適応可能な予測を生成する階層型フレームワークであるHATNを提案する。
我々は,交差点における実交通データの軌跡予測と,インターActionデータセットからのラウンドアバウンドのタスクにおいて,我々のアルゴリズムを実証する。
論文 参考訳(メタデータ) (2022-02-10T16:46:24Z) - Markov Switching Model for Driver Behavior Prediction: Use cases on
Smartphones [4.576379639081977]
スマートフォンを用いた低コストデータ収集ソリューションによって検証された運転行動切替モデルを提案する。
提案モデルでは,短時間の運転行動を予測するために,実データを用いて検証を行う。
論文 参考訳(メタデータ) (2021-08-29T09:54:05Z) - IntentNet: Learning to Predict Intention from Raw Sensor Data [86.74403297781039]
本論文では,LiDARセンサが生成する3次元点群と,環境の動的なマップの両方を利用するワンステージ検出器と予測器を開発した。
当社のマルチタスクモデルは、それぞれの別々のモジュールよりも高い精度を実現し、計算を節約します。
論文 参考訳(メタデータ) (2021-01-20T00:31:52Z) - Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring [52.557003792696484]
本稿では,車内映像と交通シーン映像の両方に基づいて運転者の意図を検出する枠組みを提案する。
本フレームワークは,83.98%,F1スコア84.3%の精度で予測を行う。
論文 参考訳(メタデータ) (2020-06-20T11:56:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。