論文の概要: Sensing accident-prone features in urban scenes for proactive driving
and accident prevention
- arxiv url: http://arxiv.org/abs/2202.12788v1
- Date: Fri, 25 Feb 2022 16:05:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-28 17:54:30.885171
- Title: Sensing accident-prone features in urban scenes for proactive driving
and accident prevention
- Title(参考訳): 運転・事故防止のための都市シーンにおける事故センシング
- Authors: Sumit Mishra, Praveen Kumar Rajendran, Luiz Felipe Vecchietti, and
Dongsoo Har
- Abstract要約: 本稿では,ダッシュカムから取得したリアルタイム画像に基づいて,事故発生時の特徴を視覚的にドライバに通知する。
事故のホットスポット周辺のGoogleストリートビュー画像は、深層畳み込みニューラルネットワーク(CNN)のファミリーを訓練するために使用される
CNNは事故が発生しやすい特徴を検出し、ある都市のシーンを事故のホットスポットと非ホットスポットに分類することができる。
- 参考スコア(独自算出の注目度): 0.5669790037378094
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In urban cities, visual information along and on roadways is likely to
distract drivers and leads to missing traffic signs and other accident-prone
features. As a solution to avoid accidents due to missing these visual cues,
this paper proposes a visual notification of accident-prone features to
drivers, based on real-time images obtained via dashcam. For this purpose,
Google Street View images around accident hotspots (areas of dense accident
occurrence) identified by accident dataset are used to train a family of deep
convolutional neural networks (CNNs). Trained CNNs are able to detect
accident-prone features and classify a given urban scene into an accident
hotspot and a non-hotspot (area of sparse accident occurrence). For given
accident hotspot, the trained CNNs can classify it into an accident hotspot
with the accuracy up to 90%. The capability of detecting accident-prone
features by the family of CNNs is analyzed by a comparative study of four
different class activation map (CAM) methods, which are used to inspect
specific accident-prone features causing the decision of CNNs, and pixel-level
object class classification. The outputs of CAM methods are processed by an
image processing pipeline to extract only the accident-prone features that are
explainable to drivers with the help of visual notification system. To prove
the efficacy of accident-prone features, an ablation study is conducted.
Ablation of accident-prone features taking 7.7%, on average, of total area in
each image sample causes up to 13.7% more chance of given area to be classified
as a non-hotspot.
- Abstract(参考訳): 都市部では、道路沿いや道路上の視覚情報がドライバーを邪魔し、交通標識の欠落やその他の事故が発生しやすい。
そこで本研究では,ダッシュカムで得られたリアルタイム画像に基づいて,ドライバに対して事故発生時の特徴を視覚的に通知する手法を提案する。
この目的のために、事故データセットによって識別された事故ホットスポット(密集した事故発生)に関するGoogleストリートビューイメージを使用して、深層畳み込みニューラルネットワーク(CNN)のファミリーをトレーニングする。
訓練されたcnnは、事故を起こしやすい特徴を検出し、与えられた都市シーンを事故ホットスポットと非ホットスポットに分類することができる。
事故ホットスポットが与えられた場合、訓練されたcnnは、90%の精度で事故ホットスポットに分類することができる。
CNNの家族による事故原因の特徴を検出する能力は,CNNの判断の原因となる特定の事故原因の特徴と画素レベルのオブジェクト分類を検査するために使用される4つの異なるクラスアクティベーションマップ(CAM)法の比較研究によって分析される。
CAM手法の出力は画像処理パイプラインで処理され、視覚的通知システムの助けを借りて運転者に説明可能な事故原因の特徴のみを抽出する。
事故傾向の特徴の有効性を証明するため,アブレーション研究を行う。
画像サンプルの総面積の7.7%の事故発生確率のアブレーションは、特定の領域を非ホットスポットに分類する確率を最大13.7%増加させる。
関連論文リスト
- Enhancing Vision-Language Models with Scene Graphs for Traffic Accident Understanding [45.7444555195196]
この研究は、交通事故のビデオを前処理し、それらをシーングラフとしてエンコードし、この表現を事故分類のための視覚と言語モダリティと整合させるためのマルチステージマルチモーダルパイプラインを導入している。
4つのクラスでトレーニングすると、一般的なトラフィック異常検出ベンチマークの(バランスの取れていない)サブセットに対して57.77%のバランスの取れた精度のスコアが得られた。
論文 参考訳(メタデータ) (2024-07-08T13:15:11Z) - Visual Context-Aware Person Fall Detection [52.49277799455569]
画像中の個人とオブジェクトを半自動分離するセグメンテーションパイプラインを提案する。
ベッド、椅子、車椅子などの背景オブジェクトは、転倒検知システムに挑戦し、誤ったポジティブアラームを引き起こす。
トレーニング中のオブジェクト固有のコンテキスト変換が、この課題を効果的に軽減することを示す。
論文 参考訳(メタデータ) (2024-04-11T19:06:36Z) - Abductive Ego-View Accident Video Understanding for Safe Driving
Perception [75.60000661664556]
マルチモーダル・アクシデント・ビデオ理解のための新しいデータセットMM-AUを提案する。
MM-AUには1,727件の映像が収録されている。
安全運転認識のための誘導型事故映像理解フレームワーク(AdVersa-SD)を提案する。
論文 参考訳(メタデータ) (2024-03-01T10:42:52Z) - Exploring the Potential of Multi-Modal AI for Driving Hazard Prediction [18.285227911703977]
本稿では,車載ダッシュカムが捉えた単一入力画像を用いて,差し迫った事故を予測するためのタスクとして定式化する。
この問題は、不確実な観測に基づいて将来の出来事を予測し、推論する必要がある。
この調査対象領域の研究を可能にするために、DHPRデータセットと呼ばれる新しいデータセットが作成される。
論文 参考訳(メタデータ) (2023-10-07T03:16:30Z) - Cognitive Accident Prediction in Driving Scenes: A Multimodality
Benchmark [77.54411007883962]
本研究では,視覚的観察と運転者の注意に対する人為的な文章記述の認識を効果的に活用し,モデルトレーニングを容易にする認知事故予測手法を提案する。
CAPは、注意テキスト〜ビジョンシフト融合モジュール、注意シーンコンテキスト転送モジュール、運転注意誘導事故予測モジュールによって構成される。
我々は,1,727件の事故ビデオと219万フレーム以上の大規模ベンチマークを構築した。
論文 参考訳(メタデータ) (2022-12-19T11:43:02Z) - TAD: A Large-Scale Benchmark for Traffic Accidents Detection from Video
Surveillance [2.1076255329439304]
既存の交通事故のデータセットは小規模で、監視カメラからではなく、オープンソースではない。
様々な次元による統合とアノテーションの後に,TADという大規模交通事故データセットが提案されている。
論文 参考訳(メタデータ) (2022-09-26T03:00:50Z) - Towards explainable artificial intelligence (XAI) for early anticipation
of traffic accidents [8.34084323253809]
事故予測モデルは、事故が起こる前に迅速に正確に事故を予測することを目的としている。
既存の人工知能(AI)モデルでは、事故の予測には、意思決定に関する人間解釈可能な説明が欠けている。
本稿では,ダッシュカム映像データから交通事故の早期予測のための地図時間的特徴を学習するGated Recurrent Unit (RU) ネットワークを提案する。
論文 参考訳(メタデータ) (2021-07-31T15:53:32Z) - A model for traffic incident prediction using emergency braking data [77.34726150561087]
道路交通事故予測におけるデータ不足の根本的な課題を、事故の代わりに緊急ブレーキイベントをトレーニングすることで解決します。
メルセデス・ベンツ車両の緊急ブレーキデータに基づくドイツにおける交通事故予測モデルを実装したプロトタイプを提案する。
論文 参考訳(メタデータ) (2021-02-12T18:17:12Z) - Computer Vision based Accident Detection for Autonomous Vehicles [0.0]
ダッシュボードカメラを用いて車両事故を検出する自動運転支援システムを提案する。
このフレームワークは、ダッシュカム映像のカスタムデータセットでテストされ、誤報率を低く保ちながら、高い事故検出率を達成する。
論文 参考訳(メタデータ) (2020-12-20T08:51:10Z) - Driver Intention Anticipation Based on In-Cabin and Driving Scene
Monitoring [52.557003792696484]
本稿では,車内映像と交通シーン映像の両方に基づいて運転者の意図を検出する枠組みを提案する。
本フレームワークは,83.98%,F1スコア84.3%の精度で予測を行う。
論文 参考訳(メタデータ) (2020-06-20T11:56:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。