論文の概要: Where and What: Driver Attention-based Object Detection
- arxiv url: http://arxiv.org/abs/2204.12150v1
- Date: Tue, 26 Apr 2022 08:38:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-27 13:48:31.675988
- Title: Where and What: Driver Attention-based Object Detection
- Title(参考訳): 運転注意に基づく物体検出の場所と場所
- Authors: Yao Rong, Naemi-Rebecca Kassautzki, Wolfgang Fuhl, Enkelejda Kasneci
- Abstract要約: 画素レベルとオブジェクトレベルのアテンション予測のギャップを埋める。
本フレームワークは,画素レベルとオブジェクトレベルの両方において,最先端の競合性能を実現する。
- 参考スコア(独自算出の注目度): 13.5947650184579
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human drivers use their attentional mechanisms to focus on critical objects
and make decisions while driving. As human attention can be revealed from gaze
data, capturing and analyzing gaze information has emerged in recent years to
benefit autonomous driving technology. Previous works in this context have
primarily aimed at predicting "where" human drivers look at and lack knowledge
of "what" objects drivers focus on. Our work bridges the gap between
pixel-level and object-level attention prediction. Specifically, we propose to
integrate an attention prediction module into a pretrained object detection
framework and predict the attention in a grid-based style. Furthermore,
critical objects are recognized based on predicted attended-to areas. We
evaluate our proposed method on two driver attention datasets, BDD-A and
DR(eye)VE. Our framework achieves competitive state-of-the-art performance in
the attention prediction on both pixel-level and object-level but is far more
efficient (75.3 GFLOPs less) in computation.
- Abstract(参考訳): 人間のドライバーは注意の仕組みを使って重要な物体に集中し、運転中に意思決定を行う。
視線データから人間の注意が明らかになるにつれて、視線情報の収集と分析が近年、自動運転技術に恩恵をもたらしている。
この文脈におけるこれまでの作業は、主に人間のドライバがどこに見ているのかを予測し、ドライバが注目する"何"オブジェクトの知識を欠くことを目的としていた。
我々の研究は、ピクセルレベルとオブジェクトレベルのアテンション予測のギャップを埋める。
具体的には,注意予測モジュールを事前学習した物体検出フレームワークに統合し,グリッドベースで注目度を予測することを提案する。
さらに、予測された参加領域に基づいてクリティカルオブジェクトが認識される。
提案手法をBDD-AとDR(eye)VEの2つのドライバー注意データセット上で評価した。
我々のフレームワークは、ピクセルレベルとオブジェクトレベルの両方の注意予測において、競争力のある最先端性能を実現するが、計算においてはるかに効率が良く(75.3 GFLOPs以下)。
関連論文リスト
- OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - Visual Saliency Detection in Advanced Driver Assistance Systems [7.455416595124159]
本稿では,ドライバの眠気検知システムと,サリエンシに基づく情景理解パイプラインを組み合わせたインテリジェントシステムを提案する。
我々は、運転者を監視するために、ハンドルに埋め込まれた革新的なバイオセンサーを使用している。
収集したPSG時系列を分類するために、専用の1D時間深部畳み込みネットワークが考案された。
論文 参考訳(メタデータ) (2023-07-26T15:41:54Z) - Pedestrian Crossing Action Recognition and Trajectory Prediction with 3D
Human Keypoints [25.550524178542833]
歩行者の横断行動認識と軌道予測のための新しいマルチタスク学習フレームワークを提案する。
生のセンサデータから抽出した3D人間のキーポイントを用いて、人間のポーズや活動に関する豊富な情報をキャプチャする。
提案手法は,幅広い評価指標を用いて最先端の性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T18:27:48Z) - CoCAtt: A Cognitive-Conditioned Driver Attention Dataset (Supplementary
Material) [31.888206001447625]
運転注意予測は、ハイリスクイベントの緩和と防止に重要な役割を果たす。
我々は新しいドライバーアテンションデータセットであるCoCAttを提示する。
CoCAttは、自律性レベル、アイトラッカーの解像度、運転シナリオといった面で、最大かつ最も多様なドライバー注意データセットである。
論文 参考訳(メタデータ) (2022-07-08T17:35:17Z) - 3D Object Detection for Autonomous Driving: A Comprehensive Survey [48.30753402458884]
自動運転車の近くで重要な3Dオブジェクトの位置、サイズ、カテゴリをインテリジェントに予測する3Dオブジェクト検出は、認識システムの重要な部分である。
本稿では,自律運転における3次元物体検出技術の進歩を概観する。
論文 参考訳(メタデータ) (2022-06-19T19:43:11Z) - CoCAtt: A Cognitive-Conditioned Driver Attention Dataset [16.177399201198636]
運転注意予測は、ハイリスクイベントの緩和と防止に重要な役割を果たす。
我々は新しいドライバーアテンションデータセットであるCoCAttを提示する。
CoCAttは、自律性レベル、アイトラッカーの解像度、運転シナリオといった面で、最大かつ最も多様なドライバー注意データセットである。
論文 参考訳(メタデータ) (2021-11-19T02:42:34Z) - TRiPOD: Human Trajectory and Pose Dynamics Forecasting in the Wild [77.59069361196404]
TRiPODは、グラフの注目ネットワークに基づいて身体のダイナミクスを予測する新しい方法です。
実世界の課題を取り入れるために,各フレームで推定された身体関節が可視・視認可能かどうかを示す指標を学習する。
評価の結果,TRiPODは,各軌道に特化して設計され,予測タスクに特化している。
論文 参考訳(メタデータ) (2021-04-08T20:01:00Z) - Detecting Invisible People [58.49425715635312]
我々は,追跡ベンチマークを再利用し,目立たない物体を検出するための新しい指標を提案する。
私たちは、現在の検出および追跡システムがこのタスクで劇的に悪化することを実証します。
第2に,最先端の単眼深度推定ネットワークによる観測結果を用いて,3次元で明示的に推論する動的モデルを構築した。
論文 参考訳(メタデータ) (2020-12-15T16:54:45Z) - Perceive, Attend, and Drive: Learning Spatial Attention for Safe
Self-Driving [84.59201486239908]
本稿では,入力の重要領域への自動参加を学習するスパースアテンションモジュールを備えたエンドツーエンドの自動運転ネットワークを提案する。
注意モジュールは特に運動計画をターゲットにしているが、以前の文献は知覚タスクにのみ注意を向けていた。
論文 参考訳(メタデータ) (2020-11-02T17:47:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。