論文の概要: Uncertainty-based Traffic Accident Anticipation with Spatio-Temporal
Relational Learning
- arxiv url: http://arxiv.org/abs/2008.00334v1
- Date: Sat, 1 Aug 2020 20:21:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 00:56:07.427851
- Title: Uncertainty-based Traffic Accident Anticipation with Spatio-Temporal
Relational Learning
- Title(参考訳): 時空間関係学習による不確実性に基づく交通事故予測
- Authors: Wentao Bao and Qi Yu and Yu Kong
- Abstract要約: 交通事故予測は、できるだけ早くダッシュカムビデオから事故を予測することを目的としている。
現在の決定論的ディープニューラルネットワークは、誤った予測では過信される可能性がある。
本稿では,関係時間学習を用いた不確実性に基づく事故予測モデルを提案する。
- 参考スコア(独自算出の注目度): 30.59728753059457
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traffic accident anticipation aims to predict accidents from dashcam videos
as early as possible, which is critical to safety-guaranteed self-driving
systems. With cluttered traffic scenes and limited visual cues, it is of great
challenge to predict how long there will be an accident from early observed
frames. Most existing approaches are developed to learn features of
accident-relevant agents for accident anticipation, while ignoring the features
of their spatial and temporal relations. Besides, current deterministic deep
neural networks could be overconfident in false predictions, leading to high
risk of traffic accidents caused by self-driving systems. In this paper, we
propose an uncertainty-based accident anticipation model with spatio-temporal
relational learning. It sequentially predicts the probability of traffic
accident occurrence with dashcam videos. Specifically, we propose to take
advantage of graph convolution and recurrent networks for relational feature
learning, and leverage Bayesian neural networks to address the intrinsic
variability of latent relational representations. The derived uncertainty-based
ranking loss is found to significantly boost model performance by improving the
quality of relational features. In addition, we collect a new Car Crash Dataset
(CCD) for traffic accident anticipation which contains environmental attributes
and accident reasons annotations. Experimental results on both public and the
newly-compiled datasets show state-of-the-art performance of our model. Our
code and CCD dataset are available at https://github.com/Cogito2012/UString.
- Abstract(参考訳): 事故予測は、ダッシュカムのビデオから事故をできるだけ早く予測することを目的としている。
交通シーンが散らばり、視覚的手がかりが限られているため、早期に観測されたフレームからの事故がいつまで続くかを予測することは、非常に難しい。
多くの既存手法は,事故予知のための事故関連エージェントの特徴を学習するために開発され,空間的・時間的関係の特徴を無視している。
さらに、現在の決定論的ディープニューラルネットワークは誤った予測を過度に信ずる可能性があり、自動運転システムによる交通事故のリスクが高い。
本稿では,時空間関係学習を用いた不確実性に基づく事故予測モデルを提案する。
ダッシュカムビデオによる交通事故発生確率を逐次予測する。
具体的には,リレーショナル特徴学習におけるグラフ畳み込みとリカレントネットワークの活用を提案し,ベイズニューラルネットワークを用いて潜在関係表現の内在的変動に対処する。
導出の不確実性に基づくランキング損失は,リレーショナル機能の品質向上により,モデル性能を著しく向上させることがわかった。
さらに,環境属性や事故理由アノテーションを含む,交通事故予測のための新しい自動車事故データセット(ccd)を収集した。
新たにコンパイルされたデータセットとパブリックデータセットの両方の実験結果から,我々のモデルの最先端性能が示された。
私たちのコードとCCDデータセットはhttps://github.com/Cogito2012/UString.orgから入手可能です。
関連論文リスト
- Learning Traffic Crashes as Language: Datasets, Benchmarks, and What-if Causal Analyses [76.59021017301127]
我々は,CrashEventという大規模トラフィッククラッシュ言語データセットを提案し,実世界のクラッシュレポート19,340を要約した。
さらに,クラッシュイベントの特徴学習を,新たなテキスト推論問題として定式化し,さらに様々な大規模言語モデル(LLM)を微調整して,詳細な事故結果を予測する。
実験の結果, LLMに基づくアプローチは事故の重大度を予測できるだけでなく, 事故の種類を分類し, 損害を予測できることがわかった。
論文 参考訳(メタデータ) (2024-06-16T03:10:16Z) - Uncertainty-Aware Probabilistic Graph Neural Networks for Road-Level Traffic Accident Prediction [6.570852598591727]
Stemporal Zero-Inflated Tweedie Graph Neural Network STZITZTDGNNは,道路交通事故予測における最初の不確実性を考慮したグラフ深層学習モデルである。
本研究は,STIDGNNが対象道路の監視を効果的に行い,都市道路の安全対策を改善することを実証するものである。
論文 参考訳(メタデータ) (2023-09-10T16:35:47Z) - Augmenting Ego-Vehicle for Traffic Near-Miss and Accident Classification
Dataset using Manipulating Conditional Style Translation [0.3441021278275805]
事故が起こる前の事故と近距離事故には差はない。
我々の貢献は、事故の定義を再定義し、DADA-2000データセットにおける事故の不整合を再注釈することである。
提案手法は、条件付きスタイル変換(CST)と分離可能な3次元畳み込みニューラルネットワーク(S3D)の2つの異なるコンポーネントを統合する。
論文 参考訳(メタデータ) (2023-01-06T22:04:47Z) - Cognitive Accident Prediction in Driving Scenes: A Multimodality
Benchmark [77.54411007883962]
本研究では,視覚的観察と運転者の注意に対する人為的な文章記述の認識を効果的に活用し,モデルトレーニングを容易にする認知事故予測手法を提案する。
CAPは、注意テキスト〜ビジョンシフト融合モジュール、注意シーンコンテキスト転送モジュール、運転注意誘導事故予測モジュールによって構成される。
我々は,1,727件の事故ビデオと219万フレーム以上の大規模ベンチマークを構築した。
論文 参考訳(メタデータ) (2022-12-19T11:43:02Z) - FBLNet: FeedBack Loop Network for Driver Attention Prediction [75.83518507463226]
非客観的運転経験はモデル化が難しい。
本稿では,運転経験蓄積過程をモデル化するFeedBack Loop Network (FBLNet)を提案する。
インクリメンタルな知識の指導のもと、私たちのモデルは入力画像から抽出されたCNN特徴とトランスフォーマー特徴を融合し、ドライバーの注意を予測します。
論文 参考訳(メタデータ) (2022-12-05T08:25:09Z) - Safety-aware Motion Prediction with Unseen Vehicles for Autonomous
Driving [104.32241082170044]
本研究では,無人運転用無人車を用いた新しい作業,安全を意識した動作予測手法について検討する。
既存の車両の軌道予測タスクとは異なり、占有率マップの予測が目的である。
私たちのアプローチは、ほとんどの場合、目に見えない車両の存在を予測できる最初の方法です。
論文 参考訳(メタデータ) (2021-09-03T13:33:33Z) - Towards explainable artificial intelligence (XAI) for early anticipation
of traffic accidents [8.34084323253809]
事故予測モデルは、事故が起こる前に迅速に正確に事故を予測することを目的としている。
既存の人工知能(AI)モデルでは、事故の予測には、意思決定に関する人間解釈可能な説明が欠けている。
本稿では,ダッシュカム映像データから交通事故の早期予測のための地図時間的特徴を学習するGated Recurrent Unit (RU) ネットワークを提案する。
論文 参考訳(メタデータ) (2021-07-31T15:53:32Z) - DRIVE: Deep Reinforced Accident Anticipation with Visual Explanation [36.350348194248014]
交通事故予測は、ダッシュカムビデオから将来の事故の発生を正確にかつ迅速に予測することを目的としている。
既存のアプローチは通常、将来の事故が起こる前に、空間的および時間的文脈の手がかりを捉えることに重点を置いている。
本稿では, DRIVE という視覚表現を用いた深部強化型事故予測手法を提案する。
論文 参考訳(メタデータ) (2021-07-21T16:33:21Z) - A Dynamic Spatial-temporal Attention Network for Early Anticipation of
Traffic Accidents [12.881094474374231]
本稿では,ダッシュカムビデオからの交通事故を早期に予測するための動的時空間アテンション(DSTA)ネットワークを提案する。
DTA(Dynamic Temporal Attention)と呼ばれるモジュールを用いてビデオシーケンスの識別時間セグメントを選択することを学ぶ
事故の空間的・時間的関係の特徴と景観的特徴は, Gated Recurrent Unit (GRU) ネットワークと共同で学習される。
論文 参考訳(メタデータ) (2021-06-18T15:58:53Z) - A model for traffic incident prediction using emergency braking data [77.34726150561087]
道路交通事故予測におけるデータ不足の根本的な課題を、事故の代わりに緊急ブレーキイベントをトレーニングすることで解決します。
メルセデス・ベンツ車両の緊急ブレーキデータに基づくドイツにおける交通事故予測モデルを実装したプロトタイプを提案する。
論文 参考訳(メタデータ) (2021-02-12T18:17:12Z) - Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring [52.557003792696484]
本稿では,車内映像と交通シーン映像の両方に基づいて運転者の意図を検出する枠組みを提案する。
本フレームワークは,83.98%,F1スコア84.3%の精度で予測を行う。
論文 参考訳(メタデータ) (2020-06-20T11:56:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。