論文の概要: Fast Vehicle Detection and Tracking on Fisheye Traffic Monitoring Video
using CNN and Bounding Box Propagation
- arxiv url: http://arxiv.org/abs/2207.01183v1
- Date: Mon, 4 Jul 2022 03:55:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-06 04:22:29.064123
- Title: Fast Vehicle Detection and Tracking on Fisheye Traffic Monitoring Video
using CNN and Bounding Box Propagation
- Title(参考訳): CNNとバウンディングボックスプロパゲーションを用いた魚眼交通監視ビデオの高速車両検出と追跡
- Authors: Sandy Ardianto, Hsueh-Ming Hang, Wen-Huang Cheng (National Yang Ming
Chiao Tung University)
- Abstract要約: 横断歩道に設置した魚眼映像の交通監視のための高速車検出・追跡アルゴリズムを設計する。
高速化のために、セグメント内の中間フレームに対してグレースケールのフレーム差を使用し、処理速度を2倍にすることができる。
- 参考スコア(独自算出の注目度): 5.366354612549172
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We design a fast car detection and tracking algorithm for traffic monitoring
fisheye video mounted on crossroads. We use ICIP 2020 VIP Cup dataset and adopt
YOLOv5 as the object detection base model. The nighttime video of this dataset
is very challenging, and the detection accuracy (AP50) of the base model is
about 54%. We design a reliable car detection and tracking algorithm based on
the concept of bounding box propagation among frames, which provides 17.9
percentage points (pp) and 7 pp accuracy improvement over the base model for
the nighttime and daytime videos, respectively. To speed up, the grayscale
frame difference is used for the intermediate frames in a segment, which can
double the processing speed.
- Abstract(参考訳): 横断歩道に設置した魚眼映像の交通監視のための高速車検出・追跡アルゴリズムを設計する。
我々はICIP 2020 VIP Cupデータセットを使用し、オブジェクト検出ベースモデルとしてYOLOv5を採用する。
このデータセットの夜間ビデオは非常に困難であり、ベースモデルの検出精度(AP50)は約54%である。
フレーム間のバウンディングボックス伝搬の概念に基づいて, 夜間および昼間ビデオのベースモデルに対して17.9パーセンテージ点 (pp) と7ppの精度向上をそれぞれ与えた, 信頼性の高い車検出・追跡アルゴリズムを設計した。
高速化には、セグメント内の中間フレームに対してグレースケールのフレーム差を用い、処理速度を2倍にすることができる。
関連論文リスト
- Nighttime Driver Behavior Prediction Using Taillight Signal Recognition
via CNN-SVM Classifier [2.44755919161855]
本研究の目的は、人間駆動車と自律車の両方のテールライトを特定し、夜間運転行動を予測する能力を高めることである。
提案モデルでは、道路の前方のテールライトを正確に検出するカスタム検出器が組み込まれている。
夜間の限られたデータに対処するため、昼間の画像をリアルな夜のイメージに変換するために、ユニークな画素ワイズ画像処理技術を実装した。
論文 参考訳(メタデータ) (2023-10-25T15:23:33Z) - So you think you can track? [37.25914081637133]
この研究は、ナッシュビル近郊の8-10車線州間高速道路の4.2マイル(4.2マイル)をカバーする234のHDカメラから同時に記録された234時間のビデオデータからなるマルチカメラ追跡データセットを導入している。
ビデオはトラフィック密度の高い期間に録画され、通常500以上のオブジェクトがシーン内に表示され、典型的なオブジェクトの長寿命は3~15分である。
現場を通過する270台の車両からのGPSトラジェクトリをビデオデータで手動で修正し、リコール指向のトラッキングメトリクスのための地上トラジェクトリのセットを提供する。
論文 参考訳(メタデータ) (2023-09-13T19:18:18Z) - StreamYOLO: Real-time Object Detection for Streaming Perception [84.2559631820007]
将来を予測する能力を備えたモデルを提供し、ストリーミング知覚の結果を大幅に改善する。
本稿では,複数の速度を駆動するシーンについて考察し,VasAP(Velocity-Awared streaming AP)を提案する。
本手法は,Argoverse-HDデータセットの最先端性能を実現し,SAPとVsAPをそれぞれ4.7%,VsAPを8.2%改善する。
論文 参考訳(メタデータ) (2022-07-21T12:03:02Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - 2nd Place Solution for Waymo Open Dataset Challenge - Real-time 2D
Object Detection [26.086623067939605]
本稿では,画像から2次元物体を検出するリアルタイム手法を提案する。
我々は、加速度RTを活用して、検出パイプラインの推論時間を最適化する。
我々のフレームワークはNvidia Tesla V100 GPU上で45.8ms/frameのレイテンシを実現する。
論文 参考訳(メタデータ) (2021-06-16T11:32:03Z) - Object Tracking by Detection with Visual and Motion Cues [1.7818230914983044]
自動運転車は、カメラ画像中の物体を検出し、追跡する必要がある。
本稿では,カルマンフィルタを用いた定速度運動モデルに基づく簡易オンライン追跡アルゴリズムを提案する。
課題のあるBDD100データセットに対するアプローチを評価します。
論文 参考訳(メタデータ) (2021-01-19T10:29:16Z) - Fast Motion Understanding with Spatiotemporal Neural Networks and
Dynamic Vision Sensors [99.94079901071163]
本稿では,高速な動きを推論するための動的視覚センサ(DVS)システムを提案する。
ロボットが15m/s以上の速度で接近する小さな物体に反応するケースを考察する。
我々は,23.4m/sで24.73degの誤差を$theta$,18.4mmの平均離散半径予測誤差,衝突予測誤差に対する25.03%の中央値で移動した玩具ダートについて,本システムの結果を強調した。
論文 参考訳(メタデータ) (2020-11-18T17:55:07Z) - Fast Video Object Segmentation With Temporal Aggregation Network and
Dynamic Template Matching [67.02962970820505]
ビデオオブジェクト(VOS)に「トラッキング・バイ・検出」を導入する。
本稿では,時間的アグリゲーションネットワークと動的時間進化テンプレートマッチング機構を提案する。
我々は,DAVISベンチマークで1フレームあたり0.14秒,J&Fで75.9%の速度で,複雑なベルとホイッスルを伴わずに,新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2020-07-11T05:44:16Z) - Tracking Objects as Points [83.9217787335878]
同時に検出と追跡を同時に行うアルゴリズムは,最先端技術よりもシンプルで,高速で,高精度である。
トラッカーであるCenterTrackは、前のフレームから一対のイメージと検出に検出モデルを適用します。
CenterTrackはシンプルで、オンライン(未来を覗くことはない)で、リアルタイムだ。
論文 参考訳(メタデータ) (2020-04-02T17:58:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。