論文の概要: CoCAtt: A Cognitive-Conditioned Driver Attention Dataset (Supplementary
Material)
- arxiv url: http://arxiv.org/abs/2207.04028v1
- Date: Fri, 8 Jul 2022 17:35:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-11 13:08:56.514282
- Title: CoCAtt: A Cognitive-Conditioned Driver Attention Dataset (Supplementary
Material)
- Title(参考訳): CoCAtt:認知型運転注意データセット(補助材料)
- Authors: Yuan Shen, Niviru Wijayaratne, Pranav Sriram, Aamir Hasan, Peter Du,
and Katherine Driggs-Campbell
- Abstract要約: 運転注意予測は、ハイリスクイベントの緩和と防止に重要な役割を果たす。
我々は新しいドライバーアテンションデータセットであるCoCAttを提示する。
CoCAttは、自律性レベル、アイトラッカーの解像度、運転シナリオといった面で、最大かつ最も多様なドライバー注意データセットである。
- 参考スコア(独自算出の注目度): 31.888206001447625
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The task of driver attention prediction has drawn considerable interest among
researchers in robotics and the autonomous vehicle industry. Driver attention
prediction can play an instrumental role in mitigating and preventing high-risk
events, like collisions and casualties. However, existing driver attention
prediction models neglect the distraction state and intention of the driver,
which can significantly influence how they observe their surroundings. To
address these issues, we present a new driver attention dataset, CoCAtt
(Cognitive-Conditioned Attention). Unlike previous driver attention datasets,
CoCAtt includes per-frame annotations that describe the distraction state and
intention of the driver. In addition, the attention data in our dataset is
captured in both manual and autopilot modes using eye-tracking devices of
different resolutions. Our results demonstrate that incorporating the above two
driver states into attention modeling can improve the performance of driver
attention prediction. To the best of our knowledge, this work is the first to
provide autopilot attention data. Furthermore, CoCAtt is currently the largest
and the most diverse driver attention dataset in terms of autonomy levels, eye
tracker resolutions, and driving scenarios. CoCAtt is available for download at
https://cocatt-dataset.github.io.
- Abstract(参考訳): ドライバー注意予測のタスクは、ロボット工学と自動運転車産業の研究者の間で大きな関心を集めている。
運転注意予測は、衝突や死傷などのリスクの高い出来事を緩和し防止する上で、重要な役割を果たす。
しかし、既存の運転注意予測モデルは、運転者の気晴らし状態や意図を無視し、周囲の観察方法に大きな影響を与える可能性がある。
これらの問題に対処するために、新しいドライバー注意データセットCoCAt(Cognitive-Conditioned Attention)を提案する。
以前のドライバ注意データセットとは異なり、CoCAttには、ドライバの混乱状態と意図を記述するフレーム単位のアノテーションが含まれている。
さらに、我々のデータセットの注意データは、異なる解像度のアイトラッキングデバイスを使用して、手動モードと自動操縦モードの両方でキャプチャされる。
以上の2つの運転状態を注意モデルに組み込むことにより、運転者注意予測の性能が向上することを示す。
私たちの知る限りでは、この研究が初めてオートパイロットの注意データを提供した。
さらに、CoCAttは現在、自律レベル、アイトラッカーの解像度、運転シナリオの観点から、最大かつ最も多様なドライバー注意データセットである。
CoCAttはhttps://cocatt-dataset.github.ioでダウンロードできる。
関連論文リスト
- Data Limitations for Modeling Top-Down Effects on Drivers' Attention [12.246649738388388]
運転は視覚運動のタスクであり、つまり、ドライバーが見ているものと何をするかの間には関連がある。
ドライバーの視線の一部のモデルは、ドライバーの行動によるトップダウン効果を考慮に入れている。
大多数は人間の視線と運転映像のボトムアップ相関しか学ばない。
論文 参考訳(メタデータ) (2024-04-12T18:23:00Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Cognitive Accident Prediction in Driving Scenes: A Multimodality
Benchmark [77.54411007883962]
本研究では,視覚的観察と運転者の注意に対する人為的な文章記述の認識を効果的に活用し,モデルトレーニングを容易にする認知事故予測手法を提案する。
CAPは、注意テキスト〜ビジョンシフト融合モジュール、注意シーンコンテキスト転送モジュール、運転注意誘導事故予測モジュールによって構成される。
我々は,1,727件の事故ビデオと219万フレーム以上の大規模ベンチマークを構築した。
論文 参考訳(メタデータ) (2022-12-19T11:43:02Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Where and What: Driver Attention-based Object Detection [13.5947650184579]
画素レベルとオブジェクトレベルのアテンション予測のギャップを埋める。
本フレームワークは,画素レベルとオブジェクトレベルの両方において,最先端の競合性能を実現する。
論文 参考訳(メタデータ) (2022-04-26T08:38:22Z) - CoCAtt: A Cognitive-Conditioned Driver Attention Dataset [16.177399201198636]
運転注意予測は、ハイリスクイベントの緩和と防止に重要な役割を果たす。
我々は新しいドライバーアテンションデータセットであるCoCAttを提示する。
CoCAttは、自律性レベル、アイトラッカーの解像度、運転シナリオといった面で、最大かつ最も多様なドライバー注意データセットである。
論文 参考訳(メタデータ) (2021-11-19T02:42:34Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - The Multimodal Driver Monitoring Database: A Naturalistic Corpus to
Study Driver Attention [44.94118128276982]
スマートな車両は、人間の運転者の行動や行動を監視して、必要な時に警告や介入を行う必要がある。
深層学習とコンピュータビジョンの最近の進歩は、人間の行動や活動を監視する上で大きな約束を示しています。
運転関連タスクの予測に高性能を提供するモデルのトレーニングには、ドメイン内の膨大なデータが必要である。
論文 参考訳(メタデータ) (2020-12-23T16:37:17Z) - Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring [52.557003792696484]
本稿では,車内映像と交通シーン映像の両方に基づいて運転者の意図を検出する枠組みを提案する。
本フレームワークは,83.98%,F1スコア84.3%の精度で予測を行う。
論文 参考訳(メタデータ) (2020-06-20T11:56:32Z) - When Do Drivers Concentrate? Attention-based Driver Behavior Modeling
With Deep Reinforcement Learning [8.9801312307912]
本研究では,運転者の行動を観察に基づいて近似し,運転者の注意度を計測するアクタ批判手法を提案する。
反応時間を考慮してアクターネットワークにアテンション機構を構築し,連続した観測の時間的依存性を捉える。
実世界の車両軌道データを用いて実験を行い,提案手法の精度が7つのベースラインアルゴリズムより優れていることを示す。
論文 参考訳(メタデータ) (2020-02-26T09:56:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。