論文の概要: Computer Vision based Accident Detection for Autonomous Vehicles
- arxiv url: http://arxiv.org/abs/2012.10870v1
- Date: Sun, 20 Dec 2020 08:51:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-01 04:42:31.962134
- Title: Computer Vision based Accident Detection for Autonomous Vehicles
- Title(参考訳): コンピュータビジョンによる自動運転車事故検出
- Authors: Dhananjai Chand, Savyasachi Gupta, and Ilaiah Kavati
- Abstract要約: ダッシュボードカメラを用いて車両事故を検出する自動運転支援システムを提案する。
このフレームワークは、ダッシュカム映像のカスタムデータセットでテストされ、誤報率を低く保ちながら、高い事故検出率を達成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Numerous Deep Learning and sensor-based models have been developed to detect
potential accidents with an autonomous vehicle. However, a self-driving car
needs to be able to detect accidents between other vehicles in its path and
take appropriate actions such as to slow down or stop and inform the concerned
authorities. In this paper, we propose a novel support system for self-driving
cars that detects vehicular accidents through a dashboard camera. The system
leverages the Mask R-CNN framework for vehicle detection and a centroid
tracking algorithm to track the detected vehicle. Additionally, the framework
calculates various parameters such as speed, acceleration, and trajectory to
determine whether an accident has occurred between any of the tracked vehicles.
The framework has been tested on a custom dataset of dashcam footage and
achieves a high accident detection rate while maintaining a low false alarm
rate.
- Abstract(参考訳): 自動運転車による潜在的な事故を検出するために、多くのディープラーニングとセンサーベースのモデルが開発されている。
しかし、自動運転車は、他の車両間の事故を検知し、減速、停止、関係者への通知といった適切な行動を取る必要がある。
本稿では,ダッシュボードカメラを用いて車両事故を検知する自動運転支援システムを提案する。
このシステムは、車両検出のためのマスクr-cnnフレームワークと、検出された車両を追跡するセンタロイドトラッキングアルゴリズムを利用する。
さらに、このフレームワークは速度、加速度、軌道などの様々なパラメータを計算し、走行中の車両間で事故が発生したかどうかを判定する。
このフレームワークは、ダッシュカム映像のカスタムデータセットでテストされ、低い誤報率を維持しながら高い事故検出率を達成する。
関連論文リスト
- DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - Infrastructure-based End-to-End Learning and Prevention of Driver
Failure [68.0478623315416]
フェールネットは、規模が拡大したミニ都市において、名目上と無謀なドライバーの両方の軌道上で、エンドツーエンドでトレーニングされた、繰り返しニューラルネットワークである。
制御障害、上流での認識エラー、ドライバーのスピードを正確に識別し、名目運転と区別することができる。
速度や周波数ベースの予測器と比較すると、FailureNetのリカレントニューラルネットワーク構造は予測能力を向上し、ハードウェアにデプロイすると84%以上の精度が得られる。
論文 参考訳(メタデータ) (2023-03-21T22:55:51Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - A Real-Time Wrong-Way Vehicle Detection Based on YOLO and Centroid
Tracking [0.0]
誤運転は、世界中の道路事故や交通渋滞の主な原因の1つである。
本稿では,道路監視カメラによる車両自動検知システムを提案する。
論文 参考訳(メタデータ) (2022-10-19T00:53:28Z) - Threat Detection In Self-Driving Vehicles Using Computer Vision [0.0]
ダッシュカムビデオを用いた自動運転車の脅威検出機構を提案する。
オブジェクトを識別するためのYOLO,高度な車線検出アルゴリズム,カメラからの距離を測定するマルチレグレッションモデルという,4つの主要なコンポーネントがある。
提案した脅威検出モデル(TDM)の最終的な精度は82.65%である。
論文 参考訳(メタデータ) (2022-09-06T12:01:07Z) - Real-Time Accident Detection in Traffic Surveillance Using Deep Learning [0.8808993671472349]
本稿では,交通監視用交差点における事故検出のための新しい効率的な枠組みを提案する。
提案手法は,最先端のYOLOv4法に基づく効率的かつ高精度な物体検出を含む,3つの階層的なステップから構成される。
提案フレームワークのロバスト性は,様々な照明条件でYouTubeから収集した映像シーケンスを用いて評価する。
論文 参考訳(メタデータ) (2022-08-12T19:07:20Z) - Detection of road traffic crashes based on collision estimation [0.0]
フレームワークは5つのモジュールで構成されている。
主な目的は、誤報の少ない精度で高い精度を達成し、パイプライニング技術に基づく単純なシステムを実装することである。
論文 参考訳(メタデータ) (2022-07-26T13:21:15Z) - CODA: A Real-World Road Corner Case Dataset for Object Detection in
Autonomous Driving [117.87070488537334]
我々は、ビジョンベース検出器のこの重要な問題を露呈する、CODAという挑戦的なデータセットを導入する。
大規模自動運転データセットで訓練された標準物体検出器の性能は、mARの12.8%以下に著しく低下した。
我々は最先端のオープンワールドオブジェクト検出器を実験し、CODAの新しいオブジェクトを確実に識別できないことを発見した。
論文 参考訳(メタデータ) (2022-03-15T08:32:56Z) - Exploiting Playbacks in Unsupervised Domain Adaptation for 3D Object
Detection [55.12894776039135]
ディープラーニングに基づく最先端の3Dオブジェクト検出器は、有望な精度を示しているが、ドメインの慣用性に過度に適合する傾向がある。
対象領域の擬似ラベルの検出器を微調整することで,このギャップを大幅に削減する新たな学習手法を提案する。
5つの自律運転データセットにおいて、これらの擬似ラベル上の検出器を微調整することで、新しい運転環境への領域ギャップを大幅に減らすことを示す。
論文 参考訳(メタデータ) (2021-03-26T01:18:11Z) - Computer Vision based Animal Collision Avoidance Framework for
Autonomous Vehicles [0.0]
動物はインドの道路でよく目撃されており、毎年自動車と自動車の事故が多発している。
これにより、このような事故の防止を支援するドライバーレス車両支援システムの開発が不可欠となる。
高速道路での動物検出の効率的なアプローチを開発することにより、車両と動物との衝突を回避するためのフレームワークを提案します。
論文 参考訳(メタデータ) (2020-12-20T09:51:23Z) - Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring [52.557003792696484]
本稿では,車内映像と交通シーン映像の両方に基づいて運転者の意図を検出する枠組みを提案する。
本フレームワークは,83.98%,F1スコア84.3%の精度で予測を行う。
論文 参考訳(メタデータ) (2020-06-20T11:56:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。