論文の概要: DriverGaze360: OmniDirectional Driver Attention with Object-Level Guidance
- arxiv url: http://arxiv.org/abs/2512.14266v1
- Date: Tue, 16 Dec 2025 10:23:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-17 16:49:26.680975
- Title: DriverGaze360: OmniDirectional Driver Attention with Object-Level Guidance
- Title(参考訳): DriverGaze360:OmniDirectional Driver Attention with Object-Level Guidance
- Authors: Shreedhar Govil, Didier Stricker, Jason Rambach,
- Abstract要約: DriverGaze360は、ビュードライバーアテンションデータセットの大規模な360$circ$である。
DriverGaze360-Netは、補助的なセマンティックセグメンテーションヘッドを用いて、アテンションマップとアテンションオブジェクトを共同で学習する。
- 参考スコア(独自算出の注目度): 16.43802401929688
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Predicting driver attention is a critical problem for developing explainable autonomous driving systems and understanding driver behavior in mixed human-autonomous vehicle traffic scenarios. Although significant progress has been made through large-scale driver attention datasets and deep learning architectures, existing works are constrained by narrow frontal field-of-view and limited driving diversity. Consequently, they fail to capture the full spatial context of driving environments, especially during lane changes, turns, and interactions involving peripheral objects such as pedestrians or cyclists. In this paper, we introduce DriverGaze360, a large-scale 360$^\circ$ field of view driver attention dataset, containing $\sim$1 million gaze-labeled frames collected from 19 human drivers, enabling comprehensive omnidirectional modeling of driver gaze behavior. Moreover, our panoramic attention prediction approach, DriverGaze360-Net, jointly learns attention maps and attended objects by employing an auxiliary semantic segmentation head. This improves spatial awareness and attention prediction across wide panoramic inputs. Extensive experiments demonstrate that DriverGaze360-Net achieves state-of-the-art attention prediction performance on multiple metrics on panoramic driving images. Dataset and method available at https://av.dfki.de/drivergaze360.
- Abstract(参考訳): 運転注意の予測は、説明可能な自動運転システムを開発し、混在する人間と自律的な自動車交通シナリオにおける運転行動を理解する上で重要な問題である。
大規模ドライバーアテンションデータセットやディープラーニングアーキテクチャを通じて大きな進歩を遂げているが、既存の作業は、視野の狭さと運転の多様性の制限によって制約されている。
その結果、特に車線変更や曲がり角、歩行者やサイクリストなどの周辺物体との相互作用など、運転環境の完全な空間的コンテキストを捉えられなかった。
本稿では、19人のドライバーから収集された100万ドルの視線ラベル付きフレームを含む、大規模な360$^\circ$の視線注意データセットであるDeadGaze360を紹介し、運転者の視線行動の総合的一方向モデリングを可能にする。
さらに,我々のパノラマ的注意予測手法である DriverGaze360-Net は,補助的なセマンティックセグメンテーションヘッドを用いて,アテンションマップとアテンションオブジェクトを共同で学習する。
これにより、広いパノラマ入力における空間認識と注意予測が改善される。
広汎な実験により,パノラマ駆動画像上の複数のメトリクスに対して,ドライビングゲイズ360-Netが最先端の注意予測性能を達成することが示された。
データセットとメソッドはhttps://av.dfki.de/drivergaze360.comで公開されている。
関連論文リスト
- Where, What, Why: Towards Explainable Driver Attention Prediction [28.677786362573638]
これは空間的注意領域(場所)を共同で予測し、参加する意味論(何)を解析し、注意割当のための認知的推論(なぜ)を提供する新しいタスクパラダイムである。
ドライバー注意予測のための大規模言語モデル駆動フレームワークであるLLadaを提案し、エンドツーエンドアーキテクチャ内でピクセルモデリング、セマンティック解析、認知推論を統合する。
この研究は、自律運転、インテリジェントドライバートレーニング、人間とコンピュータの相互作用など、ドライバーの注意機構のより深い理解に向けた重要なステップとなる。
論文 参考訳(メタデータ) (2025-06-29T04:59:39Z) - AGC-Drive: A Large-Scale Dataset for Real-World Aerial-Ground Collaboration in Driving Scenarios [68.84774511206797]
AGC-DriveはAerial-Ground Cooperativeの3D知覚のための最初の大規模実世界のデータセットである。
AGC-Driveには350のシーンがあり、それぞれ約100のフレームと13のオブジェクトカテゴリをカバーする完全な注釈付き3Dバウンディングボックスがある。
車両間協調認識と車両間協調認識の2つの3次元タスクのベンチマークを提供する。
論文 参考訳(メタデータ) (2025-06-19T14:48:43Z) - Seeing Beyond Views: Multi-View Driving Scene Video Generation with Holistic Attention [61.3281618482513]
高品質なマルチビュー駆動ビデオの合成を目的とした,新しいネットワークであるCogDrivingについて紹介する。
CogDriving は Diffusion Transformer アーキテクチャと holistic-4D attention module を活用し、次元間の同時結合を可能にする。
CogDrivingは、nuScenesバリデーションセットで強力なパフォーマンスを示し、FVDスコア37.8を達成し、リアルなドライビングビデオを生成する能力を強調している。
論文 参考訳(メタデータ) (2024-12-04T18:02:49Z) - Leveraging Driver Field-of-View for Multimodal Ego-Trajectory Prediction [69.29802752614677]
RouteFormerは、GPSデータ、環境コンテキスト、運転者の視野を組み合わせた新しいエゴ軌道予測ネットワークである。
データ不足に対処し、多様性を高めるために、同期運転場と視線データに富んだ都市運転シナリオのデータセットであるGEMを導入する。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [50.936478241688114]
非客観的運転経験のモデル化は困難であり,既存手法では運転経験蓄積手順を模擬する機構が欠如している。
本稿では,運転経験蓄積手順をモデル化するFeedBack Loop Network (FBLNet)を提案する。
提案モデルでは,既存の手法に対して強い優位性を示し,2つのドライバー注意ベンチマークデータセットの性能向上を実現している。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - CoCAtt: A Cognitive-Conditioned Driver Attention Dataset (Supplementary
Material) [31.888206001447625]
運転注意予測は、ハイリスクイベントの緩和と防止に重要な役割を果たす。
我々は新しいドライバーアテンションデータセットであるCoCAttを提示する。
CoCAttは、自律性レベル、アイトラッカーの解像度、運転シナリオといった面で、最大かつ最も多様なドライバー注意データセットである。
論文 参考訳(メタデータ) (2022-07-08T17:35:17Z) - CoCAtt: A Cognitive-Conditioned Driver Attention Dataset [16.177399201198636]
運転注意予測は、ハイリスクイベントの緩和と防止に重要な役割を果たす。
我々は新しいドライバーアテンションデータセットであるCoCAttを提示する。
CoCAttは、自律性レベル、アイトラッカーの解像度、運転シナリオといった面で、最大かつ最も多様なドライバー注意データセットである。
論文 参考訳(メタデータ) (2021-11-19T02:42:34Z) - The Multimodal Driver Monitoring Database: A Naturalistic Corpus to
Study Driver Attention [44.94118128276982]
スマートな車両は、人間の運転者の行動や行動を監視して、必要な時に警告や介入を行う必要がある。
深層学習とコンピュータビジョンの最近の進歩は、人間の行動や活動を監視する上で大きな約束を示しています。
運転関連タスクの予測に高性能を提供するモデルのトレーニングには、ドメイン内の膨大なデータが必要である。
論文 参考訳(メタデータ) (2020-12-23T16:37:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。