論文の概要: Polar Parametrization for Vision-based Surround-View 3D Detection
- arxiv url: http://arxiv.org/abs/2206.10965v1
- Date: Wed, 22 Jun 2022 10:26:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-23 15:36:59.002771
- Title: Polar Parametrization for Vision-based Surround-View 3D Detection
- Title(参考訳): 視覚に基づく3次元視野検出のための極性パラメトリゼーション
- Authors: Shaoyu Chen, Xinggang Wang, Tianheng Cheng, Qian Zhang, Chang Huang,
Wenyu Liu
- Abstract要約: 3次元検出のための極性パラメトリゼーションは、位置パラメトリゼーション、速度分解、知覚範囲、ラベル割り当て、損失関数を再構成する。
偏光パラメトリゼーションに基づいて,ポーラDETRと呼ばれるサラウンドビュー3次元検出TRansformerを提案する。
- 参考スコア(独自算出の注目度): 35.2870826850481
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: 3D detection based on surround-view camera system is a critical technique in
autopilot. In this work, we present Polar Parametrization for 3D detection,
which reformulates position parametrization, velocity decomposition, perception
range, label assignment and loss function in polar coordinate system. Polar
Parametrization establishes explicit associations between image patterns and
prediction targets, exploiting the view symmetry of surround-view cameras as
inductive bias to ease optimization and boost performance. Based on Polar
Parametrization, we propose a surround-view 3D DEtection TRansformer, named
PolarDETR. PolarDETR achieves promising performance-speed trade-off on
different backbone configurations. Besides, PolarDETR ranks 1st on the
leaderboard of nuScenes benchmark in terms of both 3D detection and 3D tracking
at the submission time (Mar. 4th, 2022). Code will be released at
\url{https://github.com/hustvl/PolarDETR}.
- Abstract(参考訳): サラウンドビューカメラシステムに基づく3次元検出は自動操縦において重要な技術である。
本研究では, 位置パラメトリゼーション, 速度分解, 知覚範囲, ラベル割り当て, 損失関数を極座標系で再構成した3次元検出のためのポーラパラメトリゼーションを提案する。
極性パラメトリゼーションは、画像パターンと予測対象との明示的な関連を確立し、サラウンドビューカメラのビュー対称性をインダクティブバイアスとして活用し、最適化を容易化し、パフォーマンスを向上させる。
偏光パラメトリゼーションに基づいて,ポーラDETRというサラウンドビュー3次元検出TRansformerを提案する。
PolarDETRは、さまざまなバックボーン構成でパフォーマンスと速度のトレードオフを実現する。
さらに、PolarDETRは、提出時に3D検出と3Dトラッキングの両方でnuScenesベンチマークのリーダーボードにランクインしている(2022年2月4日)。
コードは \url{https://github.com/hustvl/PolarDETR} でリリースされる。
関連論文リスト
- PolarBEVDet: Exploring Polar Representation for Multi-View 3D Object Detection in Bird's-Eye-View [5.0458717114406975]
カルテシアンBEV表現の代替として極性BEV表現を用いることを提案する。
nuScenesの実験では、PolarBEVDetは優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-08-29T01:42:38Z) - TAPVid-3D: A Benchmark for Tracking Any Point in 3D [63.060421798990845]
我々は,3Dにおける任意の点の追跡作業を評価するための新しいベンチマークTAPVid-3Dを導入する。
このベンチマークは、モノクロビデオから正確な3Dの動きと表面の変形を理解する能力を改善するためのガイドポストとして機能する。
論文 参考訳(メタデータ) (2024-07-08T13:28:47Z) - CAPE: Camera View Position Embedding for Multi-View 3D Object Detection [100.02565745233247]
現在のクエリベースの手法は、画像と3次元空間の幾何学的対応を学習するために、グローバルな3D位置埋め込みに依存している。
本稿では,CAPE と呼ばれる,CAmera view position Embedding に基づく新しい手法を提案する。
CAPEはnuScenesデータセット上の全てのLiDARフリーメソッドの中で最先端のパフォーマンス(61.0% NDSと52.5% mAP)を達成する。
論文 参考訳(メタデータ) (2023-03-17T18:59:54Z) - OPA-3D: Occlusion-Aware Pixel-Wise Aggregation for Monocular 3D Object
Detection [51.153003057515754]
OPA-3Dは、Occlusion-Aware Pixel-Wise Aggregationネットワークである。
密集した風景深度と、奥行きのある箱残量と物の境界箱を共同で推定する。
メインカーのカテゴリーでは最先端の手法よりも優れています。
論文 参考訳(メタデータ) (2022-11-02T14:19:13Z) - PolarFormer: Multi-camera 3D Object Detection with Polar Transformers [93.49713023975727]
自律運転における3次元物体検出は、3次元の世界に存在する「何」と「どこに」の物体を推論することを目的としている。
既存の手法はしばしば垂直軸を持つ標準カルテ座標系を採用する。
鳥眼ビュー(BEV)におけるより正確な3次元物体検出のための新しい極変換器(PolarFormer)を,マルチカメラ2D画像のみを入力として提案する。
論文 参考訳(メタデータ) (2022-06-30T16:32:48Z) - Time3D: End-to-End Joint Monocular 3D Object Detection and Tracking for
Autonomous Driving [3.8073142980733]
本稿では,モノクローナルビデオのみからエンドツーエンドに3D検出と3D追跡を共同で行うことを提案する。
Time3Dは21.4%のAMOTA、13.6%のAMOTPをnuScenesの3D追跡ベンチマークで達成し、全競合を抜いた。
論文 参考訳(メタデータ) (2022-05-30T06:41:10Z) - DETR3D: 3D Object Detection from Multi-view Images via 3D-to-2D Queries [43.02373021724797]
マルチカメラ3Dオブジェクト検出のためのフレームワークを提案する。
本手法は3次元空間での予測を直接操作する。
我々はnuScenes自動運転ベンチマークで最先端の性能を達成する。
論文 参考訳(メタデータ) (2021-10-13T17:59:35Z) - Spatiotemporal Bundle Adjustment for Dynamic 3D Human Reconstruction in
the Wild [49.672487902268706]
本稿では,カメラの時間的アライメントと3次元点三角測量を共同で推定する枠組みを提案する。
複数の無同期・無同期ビデオカメラで捉えたイベントにおいて、人間の身体の3次元運動軌跡を再構成する。
論文 参考訳(メタデータ) (2020-07-24T23:50:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。