論文の概要: Driver-Net: Multi-Camera Fusion for Assessing Driver Take-Over Readiness in Automated Vehicles
- arxiv url: http://arxiv.org/abs/2507.04139v1
- Date: Sat, 05 Jul 2025 19:27:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.037259
- Title: Driver-Net: Multi-Camera Fusion for Assessing Driver Take-Over Readiness in Automated Vehicles
- Title(参考訳): ドライバネット:自動走行車におけるドライバのテイクオーバー能力を評価するマルチカメラフュージョン
- Authors: Mahdi Rezaei, Mohsen Azarmi,
- Abstract要約: Driver-Netは、マルチカメラ入力を融合してドライバの乗っ取り準備を見積もる、新しいディープラーニングフレームワークである。
ドライバーの頭、手、身体の姿勢と同期した視覚的手がかりをトリプルカメラで撮影する。
提案手法は,運転準備度分類において最大95.8%の精度を実現する。
- 参考スコア(独自算出の注目度): 3.637162892228131
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Ensuring safe transition of control in automated vehicles requires an accurate and timely assessment of driver readiness. This paper introduces Driver-Net, a novel deep learning framework that fuses multi-camera inputs to estimate driver take-over readiness. Unlike conventional vision-based driver monitoring systems that focus on head pose or eye gaze, Driver-Net captures synchronised visual cues from the driver's head, hands, and body posture through a triple-camera setup. The model integrates spatio-temporal data using a dual-path architecture, comprising a Context Block and a Feature Block, followed by a cross-modal fusion strategy to enhance prediction accuracy. Evaluated on a diverse dataset collected from the University of Leeds Driving Simulator, the proposed method achieves an accuracy of up to 95.8% in driver readiness classification. This performance significantly enhances existing approaches and highlights the importance of multimodal and multi-view fusion. As a real-time, non-intrusive solution, Driver-Net contributes meaningfully to the development of safer and more reliable automated vehicles and aligns with new regulatory mandates and upcoming safety standards.
- Abstract(参考訳): 自動走行車における制御の安全な遷移を保証するには、運転準備の正確かつタイムリーな評価が必要である。
本稿では,マルチカメラ入力を融合した新しいディープラーニングフレームワークである Driver-Net について紹介する。
頭部ポーズや視線に焦点を当てた従来の視覚ベースの運転監視システムとは異なり、ドライバネットは頭部、手、身体の姿勢をトリプルカメラで撮影する。
このモデルは、Context BlockとFeature Blockで構成されるデュアルパスアーキテクチャを使用して時空間データを統合する。
リーズ・ドライビング・シミュレーターから収集した多種多様なデータセットに基づいて,提案手法は運転準備度分類において最大95.8%の精度を実現する。
この性能は既存のアプローチを大幅に強化し、マルチモーダルおよびマルチビュー融合の重要性を強調している。
リアルタイムで非侵入的なソリューションとして、ドライバネットはより安全で信頼性の高い自動車両の開発に有意義に貢献し、新しい規制基準と今後の安全基準に適合する。
関連論文リスト
- SafeAuto: Knowledge-Enhanced Safe Autonomous Driving with Multimodal Foundation Models [63.71984266104757]
我々は、構造化されていない知識と構造化されていない知識の両方を取り入れることで、MLLMベースの自動運転を強化するフレームワークであるSafeAutoを提案する。
安全知識を明示的に統合するため,交通ルールを一階述語論理に変換する推論コンポーネントを開発した。
我々のマルチモーダル検索・拡張生成モデルは、過去の運転経験から学ぶために、ビデオ、制御信号、環境特性を活用する。
論文 参考訳(メタデータ) (2025-02-28T21:53:47Z) - Driver Assistance System Based on Multimodal Data Hazard Detection [0.0]
本稿では,マルチモーダル運転支援システムを提案する。
道路状況映像、ドライバーの顔映像、音声データを統合して、インシデント認識の精度を高める。
論文 参考訳(メタデータ) (2025-02-05T09:02:39Z) - Efficient Mixture-of-Expert for Video-based Driver State and Physiological Multi-task Estimation in Conditional Autonomous Driving [12.765198683804094]
道路の安全は世界中で重要な課題であり、交通事故による死者は約135万人である。
VDMoEと呼ばれる新しいマルチタスクDMSを提案し、RGBビデオ入力を利用して運転状態を非侵襲的に監視する。
論文 参考訳(メタデータ) (2024-10-28T14:49:18Z) - Evaluating Driver Readiness in Conditionally Automated Vehicles from
Eye-Tracking Data and Head Pose [3.637162892228131]
SAEレベル3または部分的に自動化された車両では、ドライバーは必要な時に介入する準備ができている必要がある。
本稿では,頭部ポーズ特徴と視線追跡データを組み合わせることで,運転準備性評価の包括的分析を行う。
両特徴セットを組み合わせた双方向LSTMアーキテクチャは、DMDデータセット上で平均0.363の絶対誤差を達成する。
論文 参考訳(メタデータ) (2024-01-20T17:32:52Z) - Leveraging Driver Field-of-View for Multimodal Ego-Trajectory Prediction [69.29802752614677]
RouteFormerは、GPSデータ、環境コンテキスト、運転者の視野を組み合わせた新しいエゴ軌道予測ネットワークである。
データ不足に対処し、多様性を高めるために、同期運転場と視線データに富んだ都市運転シナリオのデータセットであるGEMを導入する。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - Infrastructure-based End-to-End Learning and Prevention of Driver
Failure [68.0478623315416]
フェールネットは、規模が拡大したミニ都市において、名目上と無謀なドライバーの両方の軌道上で、エンドツーエンドでトレーニングされた、繰り返しニューラルネットワークである。
制御障害、上流での認識エラー、ドライバーのスピードを正確に識別し、名目運転と区別することができる。
速度や周波数ベースの予測器と比較すると、FailureNetのリカレントニューラルネットワーク構造は予測能力を向上し、ハードウェアにデプロイすると84%以上の精度が得られる。
論文 参考訳(メタデータ) (2023-03-21T22:55:51Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [50.936478241688114]
非客観的運転経験のモデル化は困難であり,既存手法では運転経験蓄積手順を模擬する機構が欠如している。
本稿では,運転経験蓄積手順をモデル化するFeedBack Loop Network (FBLNet)を提案する。
提案モデルでは,既存の手法に対して強い優位性を示し,2つのドライバー注意ベンチマークデータセットの性能向上を実現している。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - DeepTake: Prediction of Driver Takeover Behavior using Multimodal Data [17.156611944404883]
DeepTakeは、取得行動の複数の側面を予測する新しいディープニューラルネットワークベースのフレームワークである。
車両データ、ドライバーバイオメトリックス、主観的測定からの特徴を用いて、deeptakeはドライバーの意図、時間、乗っ取りの質を予測する。
その結果、DeepTakeは、それぞれ96%、93%、83%の精度で、取得の意図、時間、および品質を確実に予測しています。
論文 参考訳(メタデータ) (2020-12-31T04:24:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。