論文の概要: Detection of 3D Bounding Boxes of Vehicles Using Perspective
Transformation for Accurate Speed Measurement
- arxiv url: http://arxiv.org/abs/2003.13137v2
- Date: Tue, 4 Aug 2020 23:19:58 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-18 13:48:54.491382
- Title: Detection of 3D Bounding Boxes of Vehicles Using Perspective
Transformation for Accurate Speed Measurement
- Title(参考訳): 速度計測のためのパースペクティブ変換を用いた車両の3次元境界ボックスの検出
- Authors: Viktor Kocur and Milan Ft\'a\v{c}nik
- Abstract要約: 交通監視カメラで捉えた車両の3次元境界ボックス検出のためのアルゴリズムの改良版を提案する。
我々のアルゴリズムは、探索されたシーンの点の既知の幾何を利用して視点変換を構築する。
他の最先端の完全自動結果と比較して、我々のアルゴリズムは平均絶対速度測定誤差を32%(1.10 km/hから0.75 km/h)、絶対中央値誤差を40%(0.97 km/hから0.58 km/h)削減する。
- 参考スコア(独自算出の注目度): 3.8073142980733
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Detection and tracking of vehicles captured by traffic surveillance cameras
is a key component of intelligent transportation systems. We present an
improved version of our algorithm for detection of 3D bounding boxes of
vehicles, their tracking and subsequent speed estimation. Our algorithm
utilizes the known geometry of vanishing points in the surveilled scene to
construct a perspective transformation. The transformation enables an intuitive
simplification of the problem of detecting 3D bounding boxes to detection of 2D
bounding boxes with one additional parameter using a standard 2D object
detector. Main contribution of this paper is an improved construction of the
perspective transformation which is more robust and fully automatic and an
extended experimental evaluation of speed estimation. We test our algorithm on
the speed estimation task of the BrnoCompSpeed dataset. We evaluate our
approach with different configurations to gauge the relationship between
accuracy and computational costs and benefits of 3D bounding box detection over
2D detection. All of the tested configurations run in real-time and are fully
automatic. Compared to other published state-of-the-art fully automatic results
our algorithm reduces the mean absolute speed measurement error by 32% (1.10
km/h to 0.75 km/h) and the absolute median error by 40% (0.97 km/h to 0.58
km/h).
- Abstract(参考訳): 交通監視カメラが捉えた車両の検出と追跡は、インテリジェント交通システムの重要な構成要素である。
本稿では,車両の3次元境界ボックスの検出,追跡,その後の速度推定を行うアルゴリズムの改良版を提案する。
本アルゴリズムは,監視シーンにおける消失点の既知の幾何構造を用いて視点変換を行う。
この変換により、標準の2Dオブジェクト検出器を用いて、1つのパラメータで2Dバウンディングボックスを検出することで、3Dバウンディングボックスを検出する問題を直感的に単純化することができる。
本論文の主な貢献は,より頑健で完全自動的な視点変換の構築と,速度推定の実験的評価の改善である。
BrnoCompSpeedデータセットの速度推定タスクにおいて,本アルゴリズムを検証した。
2次元検出における3次元バウンディングボックス検出の精度と計算コストとの関係を,異なる構成で評価した。
テスト済みの構成はすべてリアルタイムで実行され、完全に自動化されている。
他の最先端の完全自動結果と比較して、このアルゴリズムは平均絶対速度測定誤差を32% (1.10 km/h から 0.75 km/h)、絶対中央値誤差を 40% (0.97 km/h から 0.58 km/h) 削減する。
関連論文リスト
- Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - KAN-RCBEVDepth: A multi-modal fusion algorithm in object detection for autonomous driving [2.382388777981433]
本稿では, 自律走行における3次元物体検出の高速化を目的としたkan-RCBEVDepth法を提案する。
我々のユニークなBird’s Eye Viewベースのアプローチは、検出精度と効率を大幅に改善します。
コードはurlhttps://www.laitiamo.com/laitiamo/RCBEVDepth-KANでリリースされる。
論文 参考訳(メタデータ) (2024-08-04T16:54:49Z) - oTTC: Object Time-to-Contact for Motion Estimation in Autonomous Driving [4.707950656037167]
自律運転システムは衝突を避け安全に運転するために 物体検出に大きく依存している
モノクロ3Dオブジェクト検出器は、カメラ画像から3D境界ボックスと物体速度を直接予測することでこの問題を解決しようとする。
最近の研究では、ピクセルごとの時間対接触を推定し、速度と深さの組み合わせよりも効果的に測定できることが示唆されている。
オブジェクト検出モデルを拡張したオブジェクトごとの時間対接触推定を提案し,各オブジェクトの時間対接触属性を付加的に予測する。
論文 参考訳(メタデータ) (2024-05-13T12:34:18Z) - Correlating sparse sensing for large-scale traffic speed estimation: A
Laplacian-enhanced low-rank tensor kriging approach [76.45949280328838]
本稿では,Laplacian enhanced Low-rank tensor (LETC) フレームワークを提案する。
次に,提案したモデルをネットワークワイド・クリグにスケールアップするために,複数の有効な数値手法を用いて効率的な解アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-10-21T07:25:57Z) - Homography Loss for Monocular 3D Object Detection [54.04870007473932]
ホログラフィーロス(Homography Loss)と呼ばれる,2次元情報と3次元情報の両方を利用する識別可能なロス関数を提案する。
提案手法は,KITTI 3Dデータセットにおいて,他の最先端技術と比較して高い性能を示す。
論文 参考訳(メタデータ) (2022-04-02T03:48:03Z) - Real Time Monocular Vehicle Velocity Estimation using Synthetic Data [78.85123603488664]
移動車に搭載されたカメラから車両の速度を推定する問題を考察する。
そこで本研究では,まずオフ・ザ・シェルフ・トラッカーを用いて車両バウンディングボックスを抽出し,その後,小型ニューラルネットワークを用いて車両速度を回帰する2段階のアプローチを提案する。
論文 参考訳(メタデータ) (2021-09-16T13:10:27Z) - CFTrack: Center-based Radar and Camera Fusion for 3D Multi-Object
Tracking [9.62721286522053]
本稿では,レーダとカメラセンサの融合に基づく共同物体検出と追跡のためのエンドツーエンドネットワークを提案する。
提案手法では,物体検出に中心型レーダカメラ融合アルゴリズムを用い,物体関連にグリーディアルゴリズムを用いる。
提案手法は,20.0AMOTAを達成し,ベンチマークにおける視覚ベースの3Dトラッキング手法よりも優れる,挑戦的なnuScenesデータセット上で評価する。
論文 参考訳(メタデータ) (2021-07-11T23:56:53Z) - Achieving Real-Time Object Detection on MobileDevices with Neural
Pruning Search [45.20331644857981]
本稿では,2次元および3次元物体検出のための自律走行車における高速推論を実現するために,コンパイラ対応のニューラルプルーニング検索フレームワークを提案する。
提案手法は, YOLOv4 を用いた2次元物体検出と PointPillars による3次元物体検出において, 実時間, 55ms および 99ms の推論時間を実現する。
論文 参考訳(メタデータ) (2021-06-28T18:59:20Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - Single-Shot 3D Detection of Vehicles from Monocular RGB Images via
Geometry Constrained Keypoints in Real-Time [6.82446891805815]
単眼RGB画像における車両検出のための新しい3次元単発物体検出法を提案する。
提案手法は,3次元空間への2次元検出を付加回帰および分類パラメータの予測により引き上げる。
KITTI 3D Object Detection と新しい nuScenes Object Detection ベンチマークを用いて,自律走行のための異なるデータセットに対するアプローチを検証し,その評価を行った。
論文 参考訳(メタデータ) (2020-06-23T15:10:19Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。