論文の概要: FB-BEV: BEV Representation from Forward-Backward View Transformations
- arxiv url: http://arxiv.org/abs/2308.02236v2
- Date: Thu, 17 Aug 2023 09:07:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 22:24:07.902435
- Title: FB-BEV: BEV Representation from Forward-Backward View Transformations
- Title(参考訳): FB-BEV: 前向き視点変換によるBEV表現
- Authors: Zhiqi Li, Zhiding Yu, Wenhai Wang, Anima Anandkumar, Tong Lu, Jose M.
Alvarez
- Abstract要約: 本稿では,Bird-Eye-View (BEV) 表現のためのビュートランスフォーメーションモジュール (VTM) を提案する。
我々は提案したモジュールをFB-BEVでインスタンス化し、nuScenesテストセット上で62.4%のNDSの最先端結果を達成する。
- 参考スコア(独自算出の注目度): 131.11787050205697
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: View Transformation Module (VTM), where transformations happen between
multi-view image features and Bird-Eye-View (BEV) representation, is a crucial
step in camera-based BEV perception systems. Currently, the two most prominent
VTM paradigms are forward projection and backward projection. Forward
projection, represented by Lift-Splat-Shoot, leads to sparsely projected BEV
features without post-processing. Backward projection, with BEVFormer being an
example, tends to generate false-positive BEV features from incorrect
projections due to the lack of utilization on depth. To address the above
limitations, we propose a novel forward-backward view transformation module.
Our approach compensates for the deficiencies in both existing methods,
allowing them to enhance each other to obtain higher quality BEV
representations mutually. We instantiate the proposed module with FB-BEV, which
achieves a new state-of-the-art result of 62.4% NDS on the nuScenes test set.
Code and models are available at https://github.com/NVlabs/FB-BEV.
- Abstract(参考訳): ビュートランスフォーメーションモジュール(VTM)は、多視点画像特徴とバードアイビュー(BEV)表現の間の変換を行うもので、カメラベースのBEV認識システムにおいて重要なステップである。
現在、最も顕著な2つのVTMパラダイムは前方投影と後方投影である。
Lift-Splat-Shootで表されるフォワードプロジェクションは、後処理なしでわずかにプロジェクションされたBEV機能をもたらす。
後方投影は、BEVFormerを例にとり、奥行き利用の欠如により、誤った投影から偽陽性のBEV特徴を生成する傾向にある。
上記の制限に対処するため、我々は新しい前方ビュー変換モジュールを提案する。
提案手法は,両手法の欠点を補うもので,両者が相互に高品質なBEV表現を得ることを可能にする。
我々は提案したモジュールをFB-BEVでインスタンス化し、nuScenesテストセット上で62.4%のNDSの最先端結果を達成する。
コードとモデルはhttps://github.com/NVlabs/FB-BEVで入手できる。
関連論文リスト
- Focus on BEV: Self-calibrated Cycle View Transformation for Monocular Birds-Eye-View Segmentation [4.9185678564997355]
Birds--EyeView (BEV)セグメンテーションは、視点からトップビューへの空間マッピングを確立することを目的としている。
近年の研究では、画像空間におけるBEV非依存的特徴の破壊により、ビュートランスフォーメーションの困難に直面している。
論文 参考訳(メタデータ) (2024-10-21T12:00:52Z) - Robust Bird's Eye View Segmentation by Adapting DINOv2 [3.236198583140341]
低ランク適応(LoRA)を用いた視覚基礎モデルDINOv2をBEV推定に適用する。
我々の実験は、様々な汚職下でのBEV知覚の堅牢性を高めることを示した。
また,適応表現の有効性を,学習可能なパラメータの少ないこと,学習中の収束の高速化の観点から示す。
論文 参考訳(メタデータ) (2024-09-16T12:23:35Z) - DA-BEV: Unsupervised Domain Adaptation for Bird's Eye View Perception [104.87876441265593]
カメラのみのBird's Eye View (BEV)は3次元空間における環境認識に大きな可能性を示した。
非教師なし領域適応型BEVは、様々な未ラベル対象データから効果的に学習するが、まだ未探索である。
DA-BEVは、画像ビュー機能とBEV機能の相補性を利用して、ドメイン適応型BEV課題に対処する、最初のドメイン適応型カメラのみのBEVフレームワークである。
論文 参考訳(メタデータ) (2024-01-13T04:21:24Z) - U-BEV: Height-aware Bird's-Eye-View Segmentation and Neural Map-based Relocalization [81.76044207714637]
GPS受信が不十分な場合やセンサベースのローカライゼーションが失敗する場合、インテリジェントな車両には再ローカライゼーションが不可欠である。
Bird's-Eye-View (BEV)セグメンテーションの最近の進歩は、局所的な景観の正確な推定を可能にする。
本稿では,U-NetにインスパイアされたアーキテクチャであるU-BEVについて述べる。
論文 参考訳(メタデータ) (2023-10-20T18:57:38Z) - SA-BEV: Generating Semantic-Aware Bird's-Eye-View Feature for Multi-view
3D Object Detection [46.92706423094971]
画像特徴のセマンティックセグメンテーションに応じて背景情報をフィルタリングするセマンティック・アウェア・BEVプール(SA-BEVPool)を提案する。
また、セマンティック・アウェアのBEV機能と密接にマッチする効果的なデータ拡張戦略であるBEV-Pasteを提案する。
nuScenesの実験では、SA-BEVが最先端のパフォーマンスを達成することが示されている。
論文 参考訳(メタデータ) (2023-07-21T10:28:19Z) - Leveraging BEV Representation for 360-degree Visual Place Recognition [14.497501941931759]
本稿では,360度視覚位置認識(VPR)におけるBird's Eye View表現の利点について検討する。
本稿では,特徴抽出,特徴集約,視覚-LiDAR融合におけるBEV表現を利用した新しいネットワークアーキテクチャを提案する。
提案手法は,2つのデータセットのアブレーションおよび比較研究において評価される。
論文 参考訳(メタデータ) (2023-05-23T08:29:42Z) - Delving into the Devils of Bird's-eye-view Perception: A Review,
Evaluation and Recipe [115.31507979199564]
鳥眼視(BEV)における知覚タスクの強力な表現の学習は、産業と学界の両方から注目されつつある。
センサーの構成が複雑化するにつれて、異なるセンサーからの複数のソース情報の統合と、統一されたビューにおける特徴の表現が重要になる。
BEV知覚の中核的な問題は、(a)視点からBEVへの視点変換を通して失われた3D情報を再構成する方法、(b)BEVグリッドにおける基底真理アノテーションの取得方法、(d)センサー構成が異なるシナリオでアルゴリズムを適応・一般化する方法にある。
論文 参考訳(メタデータ) (2022-09-12T15:29:13Z) - GitNet: Geometric Prior-based Transformation for Birds-Eye-View
Segmentation [105.19949897812494]
Birds-eye-view (BEV) セマンティックセマンティックセグメンテーションは自動運転に不可欠である。
本稿では,GitNetという新しい2段階のGeometry Preside-based Transformationフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-16T06:46:45Z) - Bird's-Eye-View Panoptic Segmentation Using Monocular Frontal View
Images [4.449481309681663]
本研究では,Bird's-Eye-View (BEV) マップにおいて,高密度パノプティックセグメンテーションマップを直接予測するエンド・ツー・エンドの学習手法を提案する。
私たちのアーキテクチャはトップダウンパラダイムに従っており、新しい高密度トランスモジュールを組み込んでいます。
我々は、FV-BEV変換の感度を数学的に定式化し、BEV空間のピクセルをインテリジェントに重み付けすることができる。
論文 参考訳(メタデータ) (2021-08-06T17:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。