論文の概要: Evaluating Driver Readiness in Conditionally Automated Vehicles from
Eye-Tracking Data and Head Pose
- arxiv url: http://arxiv.org/abs/2401.11284v1
- Date: Sat, 20 Jan 2024 17:32:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-23 17:06:08.006637
- Title: Evaluating Driver Readiness in Conditionally Automated Vehicles from
Eye-Tracking Data and Head Pose
- Title(参考訳): 視線追跡データとヘッドポースを用いた条件付き自動走行車の運転準備性評価
- Authors: Mostafa Kazemi, Mahdi Rezaei, Mohsen Azarmi
- Abstract要約: SAEレベル3または部分的に自動化された車両では、ドライバーは必要な時に介入する準備ができている必要がある。
本稿では,頭部ポーズ特徴と視線追跡データを組み合わせることで,運転準備性評価の包括的分析を行う。
両特徴セットを組み合わせた双方向LSTMアーキテクチャは、DMDデータセット上で平均0.363の絶対誤差を達成する。
- 参考スコア(独自算出の注目度): 3.637162892228131
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As automated driving technology advances, the role of the driver to resume
control of the vehicle in conditionally automated vehicles becomes increasingly
critical. In the SAE Level 3 or partly automated vehicles, the driver needs to
be available and ready to intervene when necessary. This makes it essential to
evaluate their readiness accurately. This article presents a comprehensive
analysis of driver readiness assessment by combining head pose features and
eye-tracking data. The study explores the effectiveness of predictive models in
evaluating driver readiness, addressing the challenges of dataset limitations
and limited ground truth labels. Machine learning techniques, including LSTM
architectures, are utilised to model driver readiness based on the
Spatio-temporal status of the driver's head pose and eye gaze. The experiments
in this article revealed that a Bidirectional LSTM architecture, combining both
feature sets, achieves a mean absolute error of 0.363 on the DMD dataset,
demonstrating superior performance in assessing driver readiness. The modular
architecture of the proposed model also allows the integration of additional
driver-specific features, such as steering wheel activity, enhancing its
adaptability and real-world applicability.
- Abstract(参考訳): 自動走行技術が進歩するにつれて、条件付き自動走行車における車両の制御を再開するドライバーの役割がますます重要になる。
SAEレベル3または部分的に自動化された車両では、ドライバーは必要な時に介入する準備ができている必要がある。
これにより、その即応性を正確に評価することが不可欠となる。
本稿では,頭部姿勢特徴と視線追跡データを組み合わせた運転準備度評価の包括的分析を行う。
本研究は,運転準備性評価における予測モデルの有効性について検討し,データセット制限と限定的真実ラベルの課題に対処する。
LSTMアーキテクチャを含む機械学習技術は、ドライバーの頭部ポーズと視線の位置の時空間状態に基づいてドライバーの準備をモデル化するために使用される。
本稿では,両機能セットを組み合わせた双方向LSTMアーキテクチャが,DMDデータセットにおける0.363の平均絶対誤差を達成し,運転準備性を評価する上で優れた性能を示した。
提案されたモデルのモジュラーアーキテクチャは、ステアリングホイールアクティビティ、適応性の向上、現実世界の適用性など、ドライバー固有の追加機能の統合も可能にする。
関連論文リスト
- MetaFollower: Adaptable Personalized Autonomous Car Following [63.90050686330677]
適応型パーソナライズされた自動車追従フレームワークであるMetaFollowerを提案する。
まず,モデルに依存しないメタラーニング(MAML)を用いて,様々なCFイベントから共通運転知識を抽出する。
さらに、Long Short-Term Memory (LSTM) と Intelligent Driver Model (IDM) を組み合わせて、時間的不均一性を高い解釈性で反映する。
論文 参考訳(メタデータ) (2024-06-23T15:30:40Z) - EditFollower: Tunable Car Following Models for Customizable Adaptive Cruise Control Systems [28.263763430300504]
本研究では,データ駆動型自動車追従モデルを提案する。
本モデルは,運転者の社会的嗜好を考慮に入れたACCシステムの開発に有用な知見を提供する。
論文 参考訳(メタデータ) (2024-06-23T15:04:07Z) - AIDE: An Automatic Data Engine for Object Detection in Autonomous Driving [68.73885845181242]
本稿では,問題を自動的に識別し,データを効率よくキュレートし,自動ラベル付けによりモデルを改善する自動データエンジン(AIDE)を提案する。
さらに,AVデータセットのオープンワールド検出のためのベンチマークを構築し,様々な学習パラダイムを包括的に評価し,提案手法の優れた性能を低コストで実証する。
論文 参考訳(メタデータ) (2024-03-26T04:27:56Z) - DME-Driver: Integrating Human Decision Logic and 3D Scene Perception in
Autonomous Driving [65.04871316921327]
本稿では,自律運転システムの性能と信頼性を高める新しい自律運転システムを提案する。
DME-Driverは、意思決定者として強力な視覚言語モデル、制御信号生成者として計画指向認識モデルを利用する。
このデータセットを利用することで、論理的思考プロセスを通じて高精度な計画精度を実現する。
論文 参考訳(メタデータ) (2024-01-08T03:06:02Z) - RACER: Rational Artificial Intelligence Car-following-model Enhanced by
Reality [51.244807332133696]
本稿では,アダプティブ・クルーズ・コントロール(ACC)運転行動を予測する,最先端の深層学習車追従モデルであるRACERを紹介する。
従来のモデルとは異なり、RACERは実走行の重要な要素であるRDC(Rational Driving Constraints)を効果的に統合している。
RACERはアクセラレーション、ベロシティ、スペーシングといった主要なメトリクスを網羅し、ゼロ違反を登録する。
論文 参考訳(メタデータ) (2023-12-12T06:21:30Z) - BAT: Behavior-Aware Human-Like Trajectory Prediction for Autonomous
Driving [24.123577277806135]
我々は行動認識軌道予測モデル(BAT)を考案した。
我々のモデルは行動認識、相互作用認識、優先度認識、位置認識モジュールから構成される。
次世代シミュレーション(NGSIM)、ハイウェイドローン(HighD)、ラウンドアバウンドドローン(RounD)、マカオコネクテッド自律運転(MoCAD)データセットにおけるBATの性能を評価する。
論文 参考訳(メタデータ) (2023-12-11T13:27:51Z) - Assessing Drivers' Situation Awareness in Semi-Autonomous Vehicles: ASP
based Characterisations of Driving Dynamics for Modelling Scene
Interpretation and Projection [0.0]
我々は,運転者が状況に気付いているかを判断し,人間中心の支援を提供するための枠組みを提案する。
このフレームワークはロボット・オペレーティング・システム(ROS)内のモジュールシステムとして開発され、環境と運転者の状態を検知するモジュールを備えている。
本稿では、運転者の解釈とシーンの投影をモデル化し、推論するAnswer Set Programming(ASP)に基づくアプローチに焦点を当てる。
論文 参考訳(メタデータ) (2023-08-30T09:07:49Z) - Generative AI-empowered Simulation for Autonomous Driving in Vehicular
Mixed Reality Metaverses [130.15554653948897]
車両混合現実(MR)メタバースでは、物理的実体と仮想実体の間の距離を克服することができる。
現実的なデータ収集と物理世界からの融合による大規模交通・運転シミュレーションは困難かつコストがかかる。
生成AIを利用して、無制限の条件付きトラフィックを合成し、シミュレーションでデータを駆動する自律運転アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-02-16T16:54:10Z) - Predicting Take-over Time for Autonomous Driving with Real-World Data:
Robust Data Augmentation, Models, and Evaluation [11.007092387379076]
我々は、運転者向けカメラビューで動作するコンピュータビジョンアルゴリズムによって作成される中高レベルの機能で動作するテイクオーバー時間(TOT)モデルを開発し、訓練する。
拡張データでサポートされたTOTモデルを用いて,遅延なく連続的なテイクオーバー時間を推定できることを示す。
論文 参考訳(メタデータ) (2021-07-27T16:39:50Z) - Autonomous Vehicles that Alert Humans to Take-Over Controls: Modeling
with Real-World Data [11.007092387379076]
本研究は,運転状態の文脈的意味的表現の開発に焦点を当てた。
自律型エージェントの乗っ取り制御を参加者に指示する大規模な実世界制御データスタディを実施します。
これらのテイクオーバーイベントは、複数のドライバー向けカメラを使用してキャプチャされ、ラベル付けされると、コントロール遷移のデータセットと対応するテイクオーバー時間(tot)が生成される。
このデータセットを拡張後、異なるドライバ向けカメラビューで動作するコンピュータビジョンアルゴリズムが生成する低レベルと中レベルの機能でシーケンシャルに動作するtotモデルを開発・訓練する。
論文 参考訳(メタデータ) (2021-04-23T09:16:53Z) - A Software Architecture for Autonomous Vehicles: Team LRM-B Entry in the
First CARLA Autonomous Driving Challenge [49.976633450740145]
本稿では,シミュレーション都市環境における自律走行車両のナビゲーション設計について述べる。
我々のアーキテクチャは、CARLA Autonomous Driving Challengeの要件を満たすために作られました。
論文 参考訳(メタデータ) (2020-10-23T18:07:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。