論文の概要: Vision-based Uneven BEV Representation Learning with Polar Rasterization
and Surface Estimation
- arxiv url: http://arxiv.org/abs/2207.01878v1
- Date: Tue, 5 Jul 2022 08:20:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-06 14:57:02.292853
- Title: Vision-based Uneven BEV Representation Learning with Polar Rasterization
and Surface Estimation
- Title(参考訳): 偏光ラスタ化と表面推定を用いたビジョンベース不均一BEV表現学習
- Authors: Zhi Liu, Shaoyu Chen, Xiaojie Guo, Xinggang Wang, Tianheng Cheng,
Hongmei Zhu, Qian Zhang, Wenyu Liu, Yi Zhang
- Abstract要約: 視覚に基づく不均一なBEV表現学習のためのPolarBEVを提案する。
PolarBEVは、1台の2080Ti GPU上でリアルタイムの推論速度を維持する。
- 参考スコア(独自算出の注目度): 42.071461405587264
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this work, we propose PolarBEV for vision-based uneven BEV representation
learning. To adapt to the foreshortening effect of camera imaging, we rasterize
the BEV space both angularly and radially, and introduce polar embedding
decomposition to model the associations among polar grids. Polar grids are
rearranged to an array-like regular representation for efficient processing.
Besides, to determine the 2D-to-3D correspondence, we iteratively update the
BEV surface based on a hypothetical plane, and adopt height-based feature
transformation. PolarBEV keeps real-time inference speed on a single 2080Ti
GPU, and outperforms other methods for both BEV semantic segmentation and BEV
instance segmentation. Thorough ablations are presented to validate the design.
The code will be released at \url{https://github.com/SuperZ-Liu/PolarBEV}.
- Abstract(参考訳): 本研究では,視覚に基づく不均一なBEV表現学習のためのPolarBEVを提案する。
カメラ画像のforeshortening効果に適応するために,bev空間を角および放射状にラスタライズし,極性埋め込み分解を導入し,極性グリッド間の関係をモデル化する。
極性グリッドは効率的な処理のために配列のような正則表現に再構成される。
さらに,2次元から3次元の対応性を決定するために,仮定平面に基づいてBEV面を反復的に更新し,高さに基づく特徴変換を採用する。
PolarBEVは、単一の2080Ti GPU上でリアルタイムの推論速度を保持し、BEVセマンティックセグメンテーションとBEVインスタンスセグメンテーションの両方で、他のメソッドより優れている。
設計を検証するために徹底的なアブレーションが行われる。
コードは \url{https://github.com/SuperZ-Liu/PolarBEV} でリリースされる。
関連論文リスト
- U-BEV: Height-aware Bird's-Eye-View Segmentation and Neural Map-based
Relocalization [86.63465798307728]
GPS受信が不十分な場合やセンサベースのローカライゼーションが失敗する場合、インテリジェントな車両には再ローカライゼーションが不可欠である。
Bird's-Eye-View (BEV)セグメンテーションの最近の進歩は、局所的な景観の正確な推定を可能にする。
本稿では,U-NetにインスパイアされたアーキテクチャであるU-BEVについて述べる。
論文 参考訳(メタデータ) (2023-10-20T18:57:38Z) - FB-BEV: BEV Representation from Forward-Backward View Transformations [131.11787050205697]
本稿では,Bird-Eye-View (BEV) 表現のためのビュートランスフォーメーションモジュール (VTM) を提案する。
我々は提案したモジュールをFB-BEVでインスタンス化し、nuScenesテストセット上で62.4%のNDSの最先端結果を達成する。
論文 参考訳(メタデータ) (2023-08-04T10:26:55Z) - BEV-IO: Enhancing Bird's-Eye-View 3D Detection with Instance Occupancy [58.92659367605442]
我々は,BEV表現をインスタンス占有情報で拡張する新しい3次元検出パラダイムであるBEV-IOを提案する。
BEV-IOは、パラメータや計算オーバーヘッドの無視できる増加しか加えず、最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-26T11:16:12Z) - Leveraging BEV Representation for 360-degree Visual Place Recognition [14.497501941931759]
本稿では,360度視覚位置認識(VPR)におけるBird's Eye View表現の利点について検討する。
本稿では,特徴抽出,特徴集約,視覚-LiDAR融合におけるBEV表現を利用した新しいネットワークアーキテクチャを提案する。
提案手法は,2つのデータセットのアブレーションおよび比較研究において評価される。
論文 参考訳(メタデータ) (2023-05-23T08:29:42Z) - PolarFormer: Multi-camera 3D Object Detection with Polar Transformers [93.49713023975727]
自律運転における3次元物体検出は、3次元の世界に存在する「何」と「どこに」の物体を推論することを目的としている。
既存の手法はしばしば垂直軸を持つ標準カルテ座標系を採用する。
鳥眼ビュー(BEV)におけるより正確な3次元物体検出のための新しい極変換器(PolarFormer)を,マルチカメラ2D画像のみを入力として提案する。
論文 参考訳(メタデータ) (2022-06-30T16:32:48Z) - GitNet: Geometric Prior-based Transformation for Birds-Eye-View
Segmentation [105.19949897812494]
Birds-eye-view (BEV) セマンティックセマンティックセグメンテーションは自動運転に不可欠である。
本稿では,GitNetという新しい2段階のGeometry Preside-based Transformationフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-16T06:46:45Z) - Bird's-Eye-View Panoptic Segmentation Using Monocular Frontal View
Images [4.449481309681663]
本研究では,Bird's-Eye-View (BEV) マップにおいて,高密度パノプティックセグメンテーションマップを直接予測するエンド・ツー・エンドの学習手法を提案する。
私たちのアーキテクチャはトップダウンパラダイムに従っており、新しい高密度トランスモジュールを組み込んでいます。
我々は、FV-BEV変換の感度を数学的に定式化し、BEV空間のピクセルをインテリジェントに重み付けすることができる。
論文 参考訳(メタデータ) (2021-08-06T17:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。