論文の概要: Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring
- arxiv url: http://arxiv.org/abs/2006.11557v1
- Date: Sat, 20 Jun 2020 11:56:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 22:55:56.209276
- Title: Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring
- Title(参考訳): in-cabinと運転シーンモニタリングに基づく運転意図予測
- Authors: Yao Rong, Zeynep Akata, Enkelejda Kasneci
- Abstract要約: 本稿では,車内映像と交通シーン映像の両方に基づいて運転者の意図を検出する枠組みを提案する。
本フレームワークは,83.98%,F1スコア84.3%の精度で予測を行う。
- 参考スコア(独自算出の注目度): 52.557003792696484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Numerous car accidents are caused by improper driving maneuvers. Serious
injuries are however avoidable if such driving maneuvers are detected
beforehand and the driver is assisted accordingly. In fact, various recent
research has focused on the automated prediction of driving maneuver based on
hand-crafted features extracted mainly from in-cabin driver videos. Since the
outside view from the traffic scene may also contain informative features for
driving maneuver prediction, we present a framework for the detection of the
drivers' intention based on both in-cabin and traffic scene videos. More
specifically, we (1) propose a Convolutional-LSTM (ConvLSTM)-based auto-encoder
to extract motion features from the out-cabin traffic, (2) train a classifier
which considers motions from both in- and outside of the cabin jointly for
maneuver intention anticipation, (3) experimentally prove that the in- and
outside image features have complementary information. Our evaluation based on
the publicly available dataset Brain4cars shows that our framework achieves a
prediction with the accuracy of 83.98% and F1-score of 84.3%.
- Abstract(参考訳): 多くの自動車事故は不適切な運転操作によって引き起こされる。
しかし、そのような運転操作が事前に検出され、運転者がそれに応じて補助される場合、重傷は回避できる。
実際、近年の様々な研究は、主にインカビン運転ビデオから抽出された手作りの特徴に基づく運転操作の自動予測に焦点を当てている。
トラヒックシーンからの外部からの視点は、運転操作予測のための情報的特徴を含む可能性があるため、車内映像とトラヒックシーン映像の両方に基づいてドライバーの意図を検出する枠組みを提案する。
より具体的には,(1)コンボリューショナルLSTM(ConvLSTM)を用いた自動エンコーダを提案し,(2)キャビン外からの移動特徴を抽出し,(2)キャビン内外からの運動を協調して操作意図を予測し,(3)内外画像の特徴が相補的情報であることの実験的証明を行う。
公開データセットであるbrain4carsに基づく評価から、このフレームワークは83.98%、f1-scoreは84.3%の精度で予測できることがわかった。
関連論文リスト
- Towards Infusing Auxiliary Knowledge for Distracted Driver Detection [11.816566371802802]
引き離された運転は世界中の道路事故の主要な原因である。
シーン内のエンティティ間の意味的関係とドライバのポーズの構造的構成に関する補助的知識を注入することで,運転者検出(DDD)の新たな手法であるKiD3を提案する。
具体的には、シーングラフを統合した統合フレームワークを構築し、ドライバが映像フレーム内の視覚的手がかりと情報を合成し、ドライバの行動の全体像を作成する。
論文 参考訳(メタデータ) (2024-08-29T15:28:42Z) - Looking Inside Out: Anticipating Driver Intent From Videos [20.501288763809036]
ドライバーの意図は、ドライバーが危険な操作を試みている場合に車両を取り巻く警告など、道路の安全を改善するために利用することができる。
本研究では,キャビン内および外部カメラデータを利用して,将来の運転行動を予測するためのSOTA(State-of-the-art)性能を改善する手法を提案する。
我々のモデルは、既存のアプローチよりも正確により早くドライバーの操縦を予測し、精度は87.5%、平均予測時間は4.35秒前である。
論文 参考訳(メタデータ) (2023-12-03T16:24:50Z) - OpenLane-V2: A Topology Reasoning Benchmark for Unified 3D HD Mapping [84.65114565766596]
交通シーン構造を考慮したトポロジ推論のための最初のデータセットであるOpenLane-V2を提案する。
OpenLane-V2は2000のアノテートされた道路シーンで構成され、交通要素と車線との関係を記述している。
様々な最先端手法を評価し,OpenLane-V2の定量的,定性的な結果を示し,交通現場におけるトポロジ推論の今後の道筋を示す。
論文 参考訳(メタデータ) (2023-04-20T16:31:22Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - Non-Intrusive Driver Behavior Characterization From Road-Side Cameras [1.9659095632676098]
本稿では,ITS システムの路面カメラのみを用いて車体挙動を特徴付ける概念の証明を示す。
また,外部映像分析に基づく運転者の分類は,車両のキャラクタリゼーションの精度の1~2%以内の精度が得られることを示した。
論文 参考訳(メタデータ) (2023-02-25T17:22:49Z) - Cognitive Accident Prediction in Driving Scenes: A Multimodality
Benchmark [77.54411007883962]
本研究では,視覚的観察と運転者の注意に対する人為的な文章記述の認識を効果的に活用し,モデルトレーニングを容易にする認知事故予測手法を提案する。
CAPは、注意テキスト〜ビジョンシフト融合モジュール、注意シーンコンテキスト転送モジュール、運転注意誘導事故予測モジュールによって構成される。
我々は,1,727件の事故ビデオと219万フレーム以上の大規模ベンチマークを構築した。
論文 参考訳(メタデータ) (2022-12-19T11:43:02Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - DRIVE: Deep Reinforced Accident Anticipation with Visual Explanation [36.350348194248014]
交通事故予測は、ダッシュカムビデオから将来の事故の発生を正確にかつ迅速に予測することを目的としている。
既存のアプローチは通常、将来の事故が起こる前に、空間的および時間的文脈の手がかりを捉えることに重点を置いている。
本稿では, DRIVE という視覚表現を用いた深部強化型事故予測手法を提案する。
論文 参考訳(メタデータ) (2021-07-21T16:33:21Z) - Driver Drowsiness Classification Based on Eye Blink and Head Movement
Features Using the k-NN Algorithm [8.356765961526955]
この研究は、ドライバー監視カメラの信号を用いて、車両内の運転者の眠気検知を拡張することを目的としている。
この目的のために、運転シミュレータ実験において、運転者の点眼行動と頭部運動に関連する35の特徴を抽出する。
最高の特徴セットの分析は、運転者の瞬き行動と頭部の動きに対する眠気の影響についての貴重な洞察を与える。
論文 参考訳(メタデータ) (2020-09-28T12:37:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。