論文の概要: CRASH: Crash Recognition and Anticipation System Harnessing with Context-Aware and Temporal Focus Attentions
- arxiv url: http://arxiv.org/abs/2407.17757v1
- Date: Thu, 25 Jul 2024 04:12:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-26 15:17:52.228113
- Title: CRASH: Crash Recognition and Anticipation System Harnessing with Context-Aware and Temporal Focus Attentions
- Title(参考訳): CRASH:文脈認識と時間的焦点注意によるクラッシュ認識と予測システム
- Authors: Haicheng Liao, Haoyu Sun, Huanming Shen, Chengyue Wang, Kahou Tam, Chunlin Tian, Li Li, Chengzhong Xu, Zhenning Li,
- Abstract要約: カメラ映像から周囲の交通機関の事故を正確にかつ迅速に予測することは、自動運転車(AV)の安全性に不可欠である
本研究は, CRASH と呼ばれる, AV の新たな事故予測フレームワークを提案する。
オブジェクト検出、特徴抽出、オブジェクト認識モジュール、コンテキスト認識モジュール、多層融合の5つのコンポーネントをシームレスに統合する。
私たちのモデルは、平均精度(AP)や平均到達時間(mTTA)といった重要な評価指標において、既存のトップベースラインを超えています。
- 参考スコア(独自算出の注目度): 13.981748780317329
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Accurately and promptly predicting accidents among surrounding traffic agents from camera footage is crucial for the safety of autonomous vehicles (AVs). This task presents substantial challenges stemming from the unpredictable nature of traffic accidents, their long-tail distribution, the intricacies of traffic scene dynamics, and the inherently constrained field of vision of onboard cameras. To address these challenges, this study introduces a novel accident anticipation framework for AVs, termed CRASH. It seamlessly integrates five components: object detector, feature extractor, object-aware module, context-aware module, and multi-layer fusion. Specifically, we develop the object-aware module to prioritize high-risk objects in complex and ambiguous environments by calculating the spatial-temporal relationships between traffic agents. In parallel, the context-aware is also devised to extend global visual information from the temporal to the frequency domain using the Fast Fourier Transform (FFT) and capture fine-grained visual features of potential objects and broader context cues within traffic scenes. To capture a wider range of visual cues, we further propose a multi-layer fusion that dynamically computes the temporal dependencies between different scenes and iteratively updates the correlations between different visual features for accurate and timely accident prediction. Evaluated on real-world datasets--Dashcam Accident Dataset (DAD), Car Crash Dataset (CCD), and AnAn Accident Detection (A3D) datasets--our model surpasses existing top baselines in critical evaluation metrics like Average Precision (AP) and mean Time-To-Accident (mTTA). Importantly, its robustness and adaptability are particularly evident in challenging driving scenarios with missing or limited training data, demonstrating significant potential for application in real-world autonomous driving systems.
- Abstract(参考訳): カメラ映像から周囲の交通機関の事故を正確にかつ迅速に予測することは、自動運転車(AV)の安全性に不可欠である。
本課題は, 交通事故の予測不能な性質, 長期分布, 交通シーンの力学の複雑化, 搭載カメラの視野の制約など, 重大な課題を提起する。
これらの課題に対処するために,本研究では,CRASHと呼ばれるAVの新たな事故予測フレームワークを導入する。
オブジェクト検出、特徴抽出、オブジェクト認識モジュール、コンテキスト認識モジュール、多層融合の5つのコンポーネントをシームレスに統合する。
具体的には,交通エージェント間の空間的・時間的関係を計算し,複雑で曖昧な環境下での高リスク物体の優先順位付けを行うオブジェクト認識モジュールを開発した。
並行して、コンテキスト認識は、時空間から周波数領域へのグローバルな視覚情報をFFT(Fast Fourier Transform)を使用して拡張し、潜在的なオブジェクトのきめ細かい視覚的特徴と、交通シーン内のより広いコンテキストキューをキャプチャするように設計されている。
より広い範囲の視覚的手がかりを捉えるために,異なるシーン間の時間的依存関係を動的に計算し,異なる視覚的特徴間の相関を正確かつタイムリーな事故予測のために反復的に更新する多層融合を提案する。
Dashcam Accident Dataset(DAD)、Car Crash Dataset(CCD)、AnAn Accident Detection(A3D)データセットなど、実世界のデータセットに基づいて評価する。
重要なことは、その堅牢性と適応性は、訓練データ不足や限られた制限のある運転シナリオにおいて特に顕著であり、現実の自律運転システムにおける応用の可能性を示している。
関連論文リスト
- When, Where, and What? An Novel Benchmark for Accident Anticipation and Localization with Large Language Models [14.090582912396467]
本研究では,複数の次元にわたる予測能力を高めるために,LLM(Large Language Models)を統合した新しいフレームワークを提案する。
複雑な運転シーンにおけるリスクの高い要素の優先順位を動的に調整する,革新的なチェーンベースアテンション機構を開発した。
DAD, CCD, A3Dデータセットの実証的検証は平均精度(AP)と平均時間到達精度(mTTA)において優れた性能を示す
論文 参考訳(メタデータ) (2024-07-23T08:29:49Z) - OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - AIDE: An Automatic Data Engine for Object Detection in Autonomous Driving [68.73885845181242]
本稿では,問題を自動的に識別し,データを効率よくキュレートし,自動ラベル付けによりモデルを改善する自動データエンジン(AIDE)を提案する。
さらに,AVデータセットのオープンワールド検出のためのベンチマークを構築し,様々な学習パラダイムを包括的に評価し,提案手法の優れた性能を低コストで実証する。
論文 参考訳(メタデータ) (2024-03-26T04:27:56Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - An Attention-guided Multistream Feature Fusion Network for Localization
of Risky Objects in Driving Videos [10.674638266121574]
本稿では,ダッシュカムビデオから危険な交通エージェントをローカライズする,注意誘導型マルチストリーム機能融合ネットワーク(AM-Net)を提案する。
2つのGRU(Gated Recurrent Unit)ネットワークは、危険な交通エージェントを識別するために、連続するビデオフレームから抽出されたオブジェクトバウンディングボックスと光フロー特徴を用いている。
AM-Netは2つの機能ストリームを使用して、ビデオ内のトラフィックエージェントの危険度スコアを予測する。
論文 参考訳(メタデータ) (2022-09-16T13:36:28Z) - A Dynamic Spatial-temporal Attention Network for Early Anticipation of
Traffic Accidents [12.881094474374231]
本稿では,ダッシュカムビデオからの交通事故を早期に予測するための動的時空間アテンション(DSTA)ネットワークを提案する。
DTA(Dynamic Temporal Attention)と呼ばれるモジュールを用いてビデオシーケンスの識別時間セグメントを選択することを学ぶ
事故の空間的・時間的関係の特徴と景観的特徴は, Gated Recurrent Unit (GRU) ネットワークと共同で学習される。
論文 参考訳(メタデータ) (2021-06-18T15:58:53Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - SoDA: Multi-Object Tracking with Soft Data Association [75.39833486073597]
マルチオブジェクトトラッキング(MOT)は、自動運転車の安全な配備の前提条件である。
観測対象間の依存関係をエンコードするトラック埋め込みの計算に注目するMOTに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2020-08-18T03:40:25Z) - Uncertainty-based Traffic Accident Anticipation with Spatio-Temporal
Relational Learning [30.59728753059457]
交通事故予測は、できるだけ早くダッシュカムビデオから事故を予測することを目的としている。
現在の決定論的ディープニューラルネットワークは、誤った予測では過信される可能性がある。
本稿では,関係時間学習を用いた不確実性に基づく事故予測モデルを提案する。
論文 参考訳(メタデータ) (2020-08-01T20:21:48Z) - Risk-Averse MPC via Visual-Inertial Input and Recurrent Networks for
Online Collision Avoidance [95.86944752753564]
本稿では,モデル予測制御(MPC)の定式化を拡張したオンライン経路計画アーキテクチャを提案する。
我々のアルゴリズムは、状態推定の共分散を推論するリカレントニューラルネットワーク(RNN)とオブジェクト検出パイプラインを組み合わせる。
本手法のロバスト性は, 複雑な四足歩行ロボットの力学で検証され, ほとんどのロボットプラットフォームに適用可能である。
論文 参考訳(メタデータ) (2020-07-28T07:34:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。