論文の概要: TAD: A Large-Scale Benchmark for Traffic Accidents Detection from Video
Surveillance
- arxiv url: http://arxiv.org/abs/2209.12386v1
- Date: Mon, 26 Sep 2022 03:00:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 16:22:53.442804
- Title: TAD: A Large-Scale Benchmark for Traffic Accidents Detection from Video
Surveillance
- Title(参考訳): tad:ビデオ監視による交通事故検出のための大規模ベンチマーク
- Authors: Yajun Xu, Chuwen Huang, Yibing Nan, Shiguo Lian
- Abstract要約: 既存の交通事故のデータセットは小規模で、監視カメラからではなく、オープンソースではない。
様々な次元による統合とアノテーションの後に,TADという大規模交通事故データセットが提案されている。
- 参考スコア(独自算出の注目度): 2.1076255329439304
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automatic traffic accidents detection has appealed to the machine vision
community due to its implications on the development of autonomous intelligent
transportation systems (ITS) and importance to traffic safety. Most previous
studies on efficient analysis and prediction of traffic accidents, however,
have used small-scale datasets with limited coverage, which limits their effect
and applicability. Existing datasets in traffic accidents are either
small-scale, not from surveillance cameras, not open-sourced, or not built for
freeway scenes. Since accidents happened in freeways tend to cause serious
damage and are too fast to catch the spot. An open-sourced datasets targeting
on freeway traffic accidents collected from surveillance cameras is in great
need and of practical importance. In order to help the vision community address
these shortcomings, we endeavor to collect video data of real traffic accidents
that covered abundant scenes. After integration and annotation by various
dimensions, a large-scale traffic accidents dataset named TAD is proposed in
this work. Various experiments on image classification, object detection, and
video classification tasks, using public mainstream vision algorithms or
frameworks are conducted in this work to demonstrate performance of different
methods. The proposed dataset together with the experimental results are
presented as a new benchmark to improve computer vision research, especially in
ITS.
- Abstract(参考訳): 自動交通事故検出は、自律的インテリジェント交通システム(ITS)の開発と交通安全の重要性から、機械ビジョンコミュニティにアピールしている。
しかしながら、交通事故の効率的な解析と予測に関するこれまでのほとんどの研究では、カバー範囲が限定された小規模データセットを使用しており、その効果と適用性が制限されている。
既存の交通事故のデータセットは小規模で、監視カメラからではなく、オープンソースではない。
高速道路で起きた事故は深刻な被害を招きやすいため、現場に着くには早すぎる。
監視カメラから収集した高速道路交通事故を対象とするオープンソースのデータセットは、非常に必要であり、実用上重要である。
視覚的コミュニティがこれらの欠点に対処するのを助けるため,多くのシーンをカバーする実交通事故の映像データを収集する。
様々な次元による統合とアノテーションの後に,TADという大規模交通事故データセットが提案されている。
本研究では, 画像分類, 物体検出, および映像分類に関する様々な実験を行い, 様々な手法の性能を示すために, 一般の視覚アルゴリズムやフレームワークを用いた。
提案したデータセットと実験結果は,特にITSにおいてコンピュータビジョン研究を改善するための新しいベンチマークとして提示される。
関連論文リスト
- OOSTraj: Out-of-Sight Trajectory Prediction With Vision-Positioning Denoising [49.86409475232849]
軌道予測はコンピュータビジョンと自律運転の基本である。
この分野における既存のアプローチは、しばしば正確で完全な観測データを仮定する。
本稿では,視覚的位置決め技術を利用した視線外軌道予測手法を提案する。
論文 参考訳(メタデータ) (2024-04-02T18:30:29Z) - Application of 2D Homography for High Resolution Traffic Data Collection
using CCTV Cameras [9.946460710450319]
本研究では,CCTVカメラから高精細なトラフィックデータを抽出するための3段階のビデオ分析フレームワークを実装した。
このフレームワークの主要な構成要素は、オブジェクト認識、視点変換、車両軌道再構成である。
その結果, カメラ推定値間の速度偏差は10%以下で, 方向トラフィック数では+/-4.5%の誤差率を示した。
論文 参考訳(メタデータ) (2024-01-14T07:33:14Z) - Smart City Transportation: Deep Learning Ensemble Approach for Traffic
Accident Detection [0.0]
本稿では,スマートシティ交通監視システムにおける事故検出に適した軽量ソリューションであるI3D-CONVLSTM2Dモデルアーキテクチャを提案する。
I3D-CONVLSTM2D RGB + Optical-Flow (Trainable) モデルでは, 平均精度が87%, 平均精度が87%であった。
我々の研究は、スマート都市インフラ内のエッジIoTデバイスへのリアルタイム統合を前提とした、高度な視覚ベースの事故検出システムへの道筋を照らしている。
論文 参考訳(メタデータ) (2023-10-16T03:47:08Z) - Implicit Occupancy Flow Fields for Perception and Prediction in
Self-Driving [68.95178518732965]
自動運転車(SDV)は、周囲を認識でき、他の交通参加者の将来の行動を予測できなければならない。
既存の作業は、検出されたオブジェクトの軌跡が続くオブジェクト検出を実行するか、シーン全体の密度の高い占有とフローグリッドを予測するかのいずれかである。
これは、認識と将来の予測に対する統一されたアプローチを動機付け、単一のニューラルネットワークで時間とともに占有とフローを暗黙的に表現します。
論文 参考訳(メタデータ) (2023-08-02T23:39:24Z) - A Memory-Augmented Multi-Task Collaborative Framework for Unsupervised
Traffic Accident Detection in Driving Videos [22.553356096143734]
本稿では,運転ビデオにおける教師なし交通事故検出のためのメモリ拡張型マルチタスク協調フレームワーク(MAMTCF)を提案する。
映像フレームの外観変化と物体の動きを同時にモデル化することにより,エゴ関連事故と非エゴ関連事故の両方をより正確に検出することができる。
論文 参考訳(メタデータ) (2023-07-27T01:45:13Z) - DeepAccident: A Motion and Accident Prediction Benchmark for V2X
Autonomous Driving [76.29141888408265]
本研究では,現実の運転において頻繁に発生する多様な事故シナリオを含む大規模データセットを提案する。
提案したDeepAccidentデータセットには57Kの注釈付きフレームと285Kの注釈付きサンプルが含まれており、これは大規模なnuScenesデータセットの約7倍である。
論文 参考訳(メタデータ) (2023-04-03T17:37:00Z) - Camera-Radar Perception for Autonomous Vehicles and ADAS: Concepts,
Datasets and Metrics [77.34726150561087]
本研究の目的は、ADASおよび自動運転車のカメラおよびレーダーによる認識の現在のシナリオに関する研究を行うことである。
両センサと融合に関する概念と特徴を提示する。
本稿では、ディープラーニングに基づく検出とセグメンテーションタスクの概要と、車両の認識における主要なデータセット、メトリクス、課題、オープンな質問について説明する。
論文 参考訳(メタデータ) (2023-03-08T00:48:32Z) - Review on Action Recognition for Accident Detection in Smart City
Transportation Systems [0.0]
異なる監視カメラを使用してスマートシティの交通の流れを監視することは、事故を認識し、最初の応答者を警告する上で重要な役割を果たす。
コンピュータビジョンタスクにおける行動認識(AR)の利用は、ビデオ監視、医療画像、デジタル信号処理における高精度な応用に寄与している。
本稿では,自動運転車や公共交通安全システムにおける事故検出システムの開発と統合に向けた研究の方向性について述べる。
論文 参考訳(メタデータ) (2022-08-20T03:21:44Z) - Real-Time Accident Detection in Traffic Surveillance Using Deep Learning [0.8808993671472349]
本稿では,交通監視用交差点における事故検出のための新しい効率的な枠組みを提案する。
提案手法は,最先端のYOLOv4法に基づく効率的かつ高精度な物体検出を含む,3つの階層的なステップから構成される。
提案フレームワークのロバスト性は,様々な照明条件でYouTubeから収集した映像シーケンスを用いて評価する。
論文 参考訳(メタデータ) (2022-08-12T19:07:20Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Training-free Monocular 3D Event Detection System for Traffic
Surveillance [93.65240041833319]
既存のイベント検出システムは、主に学習ベースであり、大量のトレーニングデータが利用可能な場合、十分なパフォーマンスを実現している。
現実のシナリオでは、十分なラベル付きトレーニングデータの収集は高価であり、時には不可能である。
本稿では,交通監視のためのトレーニング不要な単眼3Dイベント検出システムを提案する。
論文 参考訳(メタデータ) (2020-02-01T04:42:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。