論文の概要: Training-free Monocular 3D Event Detection System for Traffic
Surveillance
- arxiv url: http://arxiv.org/abs/2002.00137v1
- Date: Sat, 1 Feb 2020 04:42:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 00:54:02.089687
- Title: Training-free Monocular 3D Event Detection System for Traffic
Surveillance
- Title(参考訳): 交通監視のための無訓練単眼3次元イベント検出システム
- Authors: Lijun Yu, Peng Chen, Wenhe Liu, Guoliang Kang, Alexander G. Hauptmann
- Abstract要約: 既存のイベント検出システムは、主に学習ベースであり、大量のトレーニングデータが利用可能な場合、十分なパフォーマンスを実現している。
現実のシナリオでは、十分なラベル付きトレーニングデータの収集は高価であり、時には不可能である。
本稿では,交通監視のためのトレーニング不要な単眼3Dイベント検出システムを提案する。
- 参考スコア(独自算出の注目度): 93.65240041833319
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We focus on the problem of detecting traffic events in a surveillance
scenario, including the detection of both vehicle actions and traffic
collisions. Existing event detection systems are mostly learning-based and have
achieved convincing performance when a large amount of training data is
available. However, in real-world scenarios, collecting sufficient labeled
training data is expensive and sometimes impossible (e.g. for traffic collision
detection). Moreover, the conventional 2D representation of surveillance views
is easily affected by occlusions and different camera views in nature. To deal
with the aforementioned problems, in this paper, we propose a training-free
monocular 3D event detection system for traffic surveillance. Our system
firstly projects the vehicles into the 3D Euclidean space and estimates their
kinematic states. Then we develop multiple simple yet effective ways to
identify the events based on the kinematic patterns, which need no further
training. Consequently, our system is robust to the occlusions and the
viewpoint changes. Exclusive experiments report the superior result of our
method on large-scale real-world surveillance datasets, which validates the
effectiveness of our proposed system.
- Abstract(参考訳): 我々は,車両の行動と衝突の両方を検出することを含む,監視シナリオにおける交通イベント検出の問題に焦点をあてる。
既存のイベント検出システムは、主に学習ベースであり、大量のトレーニングデータが利用可能な場合、十分なパフォーマンスを実現している。
しかし、実際のシナリオでは、十分なラベル付きトレーニングデータの収集は高価であり、時には不可能である(例えば、トラフィック衝突検出)。
さらに、監視ビューの従来の2次元表示は、自然界における閉塞や異なるカメラビューの影響を受けやすい。
本稿では,上記の問題に対処するため,交通監視のための無訓練単眼3次元イベント検出システムを提案する。
我々のシステムはまず、車両を3Dユークリッド空間に投影し、その運動状態を推定する。
次に,運動パターンに基づいてイベントを識別する,複数の単純かつ効果的な方法を開発し,さらなるトレーニングを必要としない。
その結果,本システムはオクルージョンや視点の変化に対して堅牢であることがわかった。
提案システムの有効性を検証した大規模実世界の監視データセットにおいて,本手法の優れた結果が報告されている。
関連論文リスト
- Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - Comparing Optical Flow and Deep Learning to Enable Computationally Efficient Traffic Event Detection with Space-Filling Curves [0.6322312717516407]
我々は,OF(Optical Flow)とDL(Deep Learning)を比較し,前方の車載カメラからの映像データに対して,空間充填曲線による計算効率の高いイベント検出を行う。
以上の結果から,OFアプローチは特異性に優れ,偽陽性を低減し,DLアプローチは優れた感度を示した。
論文 参考訳(メタデータ) (2024-07-15T13:44:52Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Generalized Few-Shot 3D Object Detection of LiDAR Point Cloud for
Autonomous Driving [91.39625612027386]
我々は,一般的な(ベース)オブジェクトに対して大量のトレーニングデータを持つが,レア(ノーベル)クラスに対してはごく少数のデータしか持たない,一般化された数発の3Dオブジェクト検出という新しいタスクを提案する。
具体的には、画像と点雲の奥行きの違いを分析し、3D LiDARデータセットにおける少数ショット設定の実践的原理を示す。
この課題を解決するために,既存の3次元検出モデルを拡張し,一般的なオブジェクトと稀なオブジェクトの両方を認識するためのインクリメンタルな微調整手法を提案する。
論文 参考訳(メタデータ) (2023-02-08T07:11:36Z) - TAD: A Large-Scale Benchmark for Traffic Accidents Detection from Video
Surveillance [2.1076255329439304]
既存の交通事故のデータセットは小規模で、監視カメラからではなく、オープンソースではない。
様々な次元による統合とアノテーションの後に,TADという大規模交通事故データセットが提案されている。
論文 参考訳(メタデータ) (2022-09-26T03:00:50Z) - Real-Time Accident Detection in Traffic Surveillance Using Deep Learning [0.8808993671472349]
本稿では,交通監視用交差点における事故検出のための新しい効率的な枠組みを提案する。
提案手法は,最先端のYOLOv4法に基づく効率的かつ高精度な物体検出を含む,3つの階層的なステップから構成される。
提案フレームワークのロバスト性は,様々な照明条件でYouTubeから収集した映像シーケンスを用いて評価する。
論文 参考訳(メタデータ) (2022-08-12T19:07:20Z) - Urban Traffic Surveillance (UTS): A fully probabilistic 3D tracking
approach based on 2D detections [11.34426502082293]
都市交通監視(Urban Traffic Surveillance、UTS)は、モノクロカメラとキャリブレーションカメラをベースとした監視システムである。
UTSは3Dバウンディングボックス表現と物理的に合理的な3Dモーションモデルを用いて車両を追跡している。
論文 参考訳(メタデータ) (2021-05-31T14:29:02Z) - Fine-Grained Vehicle Perception via 3D Part-Guided Visual Data
Augmentation [77.60050239225086]
実画像中の車両に動的部品を付加した3次元自動車モデルによる効果的なトレーニングデータ生成プロセスを提案する。
私達のアプローチは人間の相互作用なしで完全に自動です。
VUS解析用マルチタスクネットワークとVHI解析用マルチストリームネットワークを提案する。
論文 参考訳(メタデータ) (2020-12-15T03:03:38Z) - Anomaly Detection in Video via Self-Supervised and Multi-Task Learning [113.81927544121625]
ビデオにおける異常検出は、コンピュータビジョンの問題である。
本稿では,オブジェクトレベルでの自己教師型およびマルチタスク学習を通じて,ビデオ中の異常事象検出にアプローチする。
論文 参考訳(メタデータ) (2020-11-15T10:21:28Z) - Artificial Intelligence Enabled Traffic Monitoring System [3.085453921856008]
本稿では,深層畳み込みニューラルネットワークを用いたリアルタイム交通映像の自動監視手法を提案する。
提案システムは、さまざまなトラフィック監視ニーズを自動化するために、最先端のディープラーニングアルゴリズムをデプロイする。
論文 参考訳(メタデータ) (2020-10-02T22:28:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。