論文の概要: DRIVE: Deep Reinforced Accident Anticipation with Visual Explanation
- arxiv url: http://arxiv.org/abs/2107.10189v1
- Date: Wed, 21 Jul 2021 16:33:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-22 14:12:43.193377
- Title: DRIVE: Deep Reinforced Accident Anticipation with Visual Explanation
- Title(参考訳): DRIVE:視覚的説明による深い強化された事故予測
- Authors: Wentao Bao, Qi Yu, Yu Kong
- Abstract要約: 交通事故予測は、ダッシュカムビデオから将来の事故の発生を正確にかつ迅速に予測することを目的としている。
既存のアプローチは通常、将来の事故が起こる前に、空間的および時間的文脈の手がかりを捉えることに重点を置いている。
本稿では, DRIVE という視覚表現を用いた深部強化型事故予測手法を提案する。
- 参考スコア(独自算出の注目度): 36.350348194248014
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traffic accident anticipation aims to accurately and promptly predict the
occurrence of a future accident from dashcam videos, which is vital for a
safety-guaranteed self-driving system. To encourage an early and accurate
decision, existing approaches typically focus on capturing the cues of spatial
and temporal context before a future accident occurs. However, their
decision-making lacks visual explanation and ignores the dynamic interaction
with the environment. In this paper, we propose Deep ReInforced accident
anticipation with Visual Explanation, named DRIVE. The method simulates both
the bottom-up and top-down visual attention mechanism in a dashcam observation
environment so that the decision from the proposed stochastic multi-task agent
can be visually explained by attentive regions. Moreover, the proposed dense
anticipation reward and sparse fixation reward are effective in training the
DRIVE model with our improved reinforcement learning algorithm. Experimental
results show that the DRIVE model achieves state-of-the-art performance on
multiple real-world traffic accident datasets. The code and pre-trained model
will be available upon paper acceptance.
- Abstract(参考訳): 交通事故予知は、自動運転システムにとって必須のdashcamビデオから、将来の事故の発生を正確かつ迅速に予測することを目的としている。
早期かつ正確な意思決定を促進するために、既存のアプローチは、将来の事故が起こる前に空間的および時間的文脈の手がかりを捉えることに重点を置いている。
しかし、その決定は視覚的な説明に欠け、環境との動的相互作用を無視している。
本稿では,DRIVE と命名された視覚表現を用いた深部強化事故予測手法を提案する。
ダッシュカム観察環境におけるボトムアップとトップダウンの両方の視覚注意機構をシミュレートし、提案する確率的マルチタスクエージェントからの判断を注意領域で視覚的に説明できるようにする。
また,強化学習アルゴリズムを改良したドライブモデルの学習には,提案する密集型予測報酬とスパース固定報酬が有効である。
実験結果から,DRIVEモデルが複数の実世界の交通事故データセットに対して最先端の性能を達成することが示された。
コードと事前トレーニングされたモデルは、紙の受け入れ時に利用可能になる。
関連論文リスト
- Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - A Memory-Augmented Multi-Task Collaborative Framework for Unsupervised
Traffic Accident Detection in Driving Videos [22.553356096143734]
本稿では,運転ビデオにおける教師なし交通事故検出のためのメモリ拡張型マルチタスク協調フレームワーク(MAMTCF)を提案する。
映像フレームの外観変化と物体の動きを同時にモデル化することにより,エゴ関連事故と非エゴ関連事故の両方をより正確に検出することができる。
論文 参考訳(メタデータ) (2023-07-27T01:45:13Z) - Cognitive Accident Prediction in Driving Scenes: A Multimodality
Benchmark [77.54411007883962]
本研究では,視覚的観察と運転者の注意に対する人為的な文章記述の認識を効果的に活用し,モデルトレーニングを容易にする認知事故予測手法を提案する。
CAPは、注意テキスト〜ビジョンシフト融合モジュール、注意シーンコンテキスト転送モジュール、運転注意誘導事故予測モジュールによって構成される。
我々は,1,727件の事故ビデオと219万フレーム以上の大規模ベンチマークを構築した。
論文 参考訳(メタデータ) (2022-12-19T11:43:02Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - Towards explainable artificial intelligence (XAI) for early anticipation
of traffic accidents [8.34084323253809]
事故予測モデルは、事故が起こる前に迅速に正確に事故を予測することを目的としている。
既存の人工知能(AI)モデルでは、事故の予測には、意思決定に関する人間解釈可能な説明が欠けている。
本稿では,ダッシュカム映像データから交通事故の早期予測のための地図時間的特徴を学習するGated Recurrent Unit (RU) ネットワークを提案する。
論文 参考訳(メタデータ) (2021-07-31T15:53:32Z) - A Dynamic Spatial-temporal Attention Network for Early Anticipation of
Traffic Accidents [12.881094474374231]
本稿では,ダッシュカムビデオからの交通事故を早期に予測するための動的時空間アテンション(DSTA)ネットワークを提案する。
DTA(Dynamic Temporal Attention)と呼ばれるモジュールを用いてビデオシーケンスの識別時間セグメントを選択することを学ぶ
事故の空間的・時間的関係の特徴と景観的特徴は, Gated Recurrent Unit (GRU) ネットワークと共同で学習される。
論文 参考訳(メタデータ) (2021-06-18T15:58:53Z) - Uncertainty-based Traffic Accident Anticipation with Spatio-Temporal
Relational Learning [30.59728753059457]
交通事故予測は、できるだけ早くダッシュカムビデオから事故を予測することを目的としている。
現在の決定論的ディープニューラルネットワークは、誤った予測では過信される可能性がある。
本稿では,関係時間学習を用いた不確実性に基づく事故予測モデルを提案する。
論文 参考訳(メタデータ) (2020-08-01T20:21:48Z) - Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring [52.557003792696484]
本稿では,車内映像と交通シーン映像の両方に基づいて運転者の意図を検出する枠組みを提案する。
本フレームワークは,83.98%,F1スコア84.3%の精度で予測を行う。
論文 参考訳(メタデータ) (2020-06-20T11:56:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。