論文の概要: CenterLoc3D: Monocular 3D Vehicle Localization Network for Roadside
Surveillance Cameras
- arxiv url: http://arxiv.org/abs/2203.14550v1
- Date: Mon, 28 Mar 2022 07:47:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-29 13:06:01.925761
- Title: CenterLoc3D: Monocular 3D Vehicle Localization Network for Roadside
Surveillance Cameras
- Title(参考訳): CenterLoc3D:道路監視カメラのための単眼3D車両位置決めネットワーク
- Authors: Tang Xinyao and Song Huansheng and Wang Wei and Zhao Chunhui
- Abstract要約: 路面単眼カメラのための3次元車両位置決めネットワークCenterLoc3Dを提案する。
提案手法は高精度でリアルタイムな性能を実現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Monocular 3D vehicle localization is an important task in Intelligent
Transportation System (ITS) and Cooperative Vehicle Infrastructure System
(CVIS), which is usually achieved by monocular 3D vehicle detection. However,
depth information cannot be obtained directly by monocular cameras due to the
inherent imaging mechanism, resulting in more challenging monocular 3D tasks.
Most of the current monocular 3D vehicle detection methods leverage 2D
detectors and additional geometric modules, which reduces the efficiency. In
this paper, we propose a 3D vehicle localization network CenterLoc3D for
roadside monocular cameras, which directly predicts centroid and eight vertexes
in image space, and dimension of 3D bounding boxes without 2D detectors. In
order to improve the precision of 3D vehicle localization, we propose a
weighted-fusion module and a loss with spatial constraints embedding in
CenterLoc3D. Firstly, the transformation matrix between 2D image space and 3D
world space is solved by camera calibration. Secondly, vehicle type, centroid,
eight vertexes and dimension of 3D vehicle bounding boxes are obtained by
CenterLoc3D. Finally, centroid in 3D world space can be obtained by camera
calibration and CenterLoc3D for 3D vehicle localization. To the best of our
knowledge, this is the first application of 3D vehicle localization for
roadside monocular cameras. Hence, we also propose a benchmark for this
application including dataset (SVLD-3D), annotation tool (LabelImg-3D) and
evaluation metrics. Through experimental validation, the proposed method
achieves high accuracy and real-time performance.
- Abstract(参考訳): 知的輸送システム(its)および協調車両インフラシステム(cvis)において、単眼3d車両の局在化は重要な課題であり、通常単眼3d車両検出によって達成される。
しかし、内在的な撮像機構のため、単眼カメラでは深度情報は直接取得できないため、より難しい単眼3d作業となる。
現在のモノクル3D車両検出法のほとんどは、2D検出器と追加の幾何学モジュールを活用し、効率を低下させる。
本論文では,2次元検出器を用いない3次元バウンディングボックスの次元と画像空間における遠心および8つの頂点を直接予測する,路面単眼カメラのための3次元車両位置決めネットワークである centerloc3dを提案する。
本研究では,3次元車両位置決めの精度を向上させるために,重み付き融合モジュールとCenterLoc3Dに空間制約を埋め込んだ損失を提案する。
まず、2次元画像空間と3次元世界空間との変換行列をカメラキャリブレーションにより解決する。
第2に、CenterLoc3Dにより、車種、センタロイド、8頂点および3次元車両バウンディングボックスの寸法を求める。
最後に、カメラキャリブレーションとセンターloc3dにより3dワールド空間のセンタロイドを得ることができ、3d車両のローカライズが可能となる。
私たちの知る限りでは、これは路面単眼カメラに対する3d車両のローカライズの最初の応用である。
そこで本アプリケーションでは,データセット(SVLD-3D),アノテーションツール(LabelImg-3D),評価指標などのベンチマークも提案する。
実験により,提案手法は高精度かつリアルタイムな性能を実現する。
関連論文リスト
- HeightFormer: A Semantic Alignment Monocular 3D Object Detection Method from Roadside Perspective [11.841338298700421]
本研究では,空間的前駆体とVoxel Pooling formerを統合した3次元物体検出フレームワークを提案する。
Rope3DとDAIR-V2X-Iデータセットを用いて実験を行い、提案アルゴリズムが車とサイクリストの両方を検知する際の性能を実証した。
論文 参考訳(メタデータ) (2024-10-10T09:37:33Z) - Sparse Points to Dense Clouds: Enhancing 3D Detection with Limited LiDAR Data [68.18735997052265]
単分子と点雲に基づく3次元検出の利点を組み合わせたバランスの取れたアプローチを提案する。
本手法では,低コストで低解像度のセンサから得られる3Dポイントを少数必要としている。
3次元検出の精度は最先端の単分子検出法と比較して20%向上する。
論文 参考訳(メタデータ) (2024-04-10T03:54:53Z) - NeurOCS: Neural NOCS Supervision for Monocular 3D Object Localization [80.3424839706698]
入力として3Dボックスをインスタンスマスクとして使用するNeurOCSを提案する。
われわれのアプローチは、実際の運転シーンから直接カテゴリレベルの形状を学習する際の洞察に依存している。
我々は、オブジェクト中心の視点からオブジェクト座標をより効果的に学習するための重要な設計選択を行う。
論文 参考訳(メタデータ) (2023-05-28T16:18:41Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - High-level camera-LiDAR fusion for 3D object detection with machine
learning [0.0]
本稿では,自律運転などの応用において重要な3次元物体検出問題に取り組む。
モノクロカメラとLiDARデータを組み合わせた機械学習パイプラインを使用して、動くプラットフォームの周囲の3D空間内の車両を検出する。
本結果は,検証セットに対して効率よく精度の高い推定を行い,全体の精度は87.1%となった。
論文 参考訳(メタデータ) (2021-05-24T01:57:34Z) - FGR: Frustum-Aware Geometric Reasoning for Weakly Supervised 3D Vehicle
Detection [81.79171905308827]
3Dアノテーションを使わずに点雲中の車両を検出するためのフラストラム対応幾何推論(FGR)を提案する。
本手法は粗い3次元セグメンテーションと3次元バウンディングボックス推定の2段階からなる。
2Dバウンディングボックスとスパースポイントクラウドだけで、3D空間内のオブジェクトを正確に検出できます。
論文 参考訳(メタデータ) (2021-05-17T07:29:55Z) - M3DSSD: Monocular 3D Single Stage Object Detector [82.25793227026443]
特徴アライメントと非対称非局所的注意を有するモノクロ3次元単段物体検出器(M3DSSD)を提案する。
提案したM3DSSDは,KITTIデータセット上のモノラルな3Dオブジェクト検出手法よりも大幅に性能が向上する。
論文 参考訳(メタデータ) (2021-03-24T13:09:11Z) - Stereo CenterNet based 3D Object Detection for Autonomous Driving [2.508414661327797]
ステレオ画像の幾何学的情報を用いた3次元物体検出手法Stereo CenterNetを提案する。
Stereo CenterNetは、空間内のオブジェクトの3D境界ボックスの4つの意味キーポイントを予測し、3D空間におけるオブジェクトのバウンディングボックスを復元するために、2D左の右ボックス、3D次元、向き、キーポイントを使用する。
KITTIデータセットを用いた実験により, ステレオ幾何に基づく最先端手法と比較して, 高速かつ高精度なトレードオフを実現することができた。
論文 参考訳(メタデータ) (2021-03-20T02:18:49Z) - Kinematic 3D Object Detection in Monocular Video [123.7119180923524]
運動運動を注意深く利用して3次元位置決めの精度を向上させるモノクロ映像を用いた3次元物体検出法を提案する。
我々は、KITTI自動運転データセット内のモノクロ3次元物体検出とバードアイビュータスクの最先端性能を達成する。
論文 参考訳(メタデータ) (2020-07-19T01:15:12Z) - RTM3D: Real-time Monocular 3D Detection from Object Keypoints for
Autonomous Driving [26.216609821525676]
最も成功した3D検出器は、3Dバウンディングボックスから2Dボックスへの投射制約を重要な構成要素としている。
画像空間における3次元境界ボックスの9つの視点キーポイントを予測し、3次元空間における3次元視点と2次元視点の幾何学的関係を利用して、次元、位置、方向を復元する。
提案手法は,KITTIベンチマークの最先端性能を達成しつつ,モノクロ画像の3次元検出を行う最初のリアルタイムシステムである。
論文 参考訳(メタデータ) (2020-01-10T08:29:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。