論文の概要: U-BEV: Height-aware Bird's-Eye-View Segmentation and Neural Map-based
Relocalization
- arxiv url: http://arxiv.org/abs/2310.13766v1
- Date: Fri, 20 Oct 2023 18:57:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 05:26:44.138840
- Title: U-BEV: Height-aware Bird's-Eye-View Segmentation and Neural Map-based
Relocalization
- Title(参考訳): u-bev:ハイトアウェアバードズ・アイビューセグメンテーションとニューラルマップに基づく再局在化
- Authors: Andrea Boscolo Camiletto, Alfredo Bochicchio, Alexander Liniger,
Dengxin Dai, Abel Gawel
- Abstract要約: GPS受信が不十分な場合やセンサベースのローカライゼーションが失敗する場合、インテリジェントな車両には再ローカライゼーションが不可欠である。
Bird's-Eye-View (BEV)セグメンテーションの最近の進歩は、局所的な景観の正確な推定を可能にする。
本稿では,U-NetにインスパイアされたアーキテクチャであるU-BEVについて述べる。
- 参考スコア(独自算出の注目度): 86.63465798307728
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Efficient relocalization is essential for intelligent vehicles when GPS
reception is insufficient or sensor-based localization fails. Recent advances
in Bird's-Eye-View (BEV) segmentation allow for accurate estimation of local
scene appearance and in turn, can benefit the relocalization of the vehicle.
However, one downside of BEV methods is the heavy computation required to
leverage the geometric constraints. This paper presents U-BEV, a U-Net inspired
architecture that extends the current state-of-the-art by allowing the BEV to
reason about the scene on multiple height layers before flattening the BEV
features. We show that this extension boosts the performance of the U-BEV by up
to 4.11 IoU. Additionally, we combine the encoded neural BEV with a
differentiable template matcher to perform relocalization on neural SD-map
data. The model is fully end-to-end trainable and outperforms transformer-based
BEV methods of similar computational complexity by 1.7 to 2.8 mIoU and
BEV-based relocalization by over 26% Recall Accuracy on the nuScenes dataset.
- Abstract(参考訳): GPS受信が不十分な場合やセンサによるローカライゼーションが失敗する場合、インテリジェントな車両には効率的な再ローカライゼーションが不可欠である。
近年のBird's-Eye-View (BEV)セグメンテーションの進歩により、局所的な景観の正確な推定が可能となり、車両の再位置化の恩恵を受けることができる。
しかし、BEV手法の欠点の1つは、幾何学的制約を利用するのに必要な重い計算である。
本稿では,u-netにインスパイアされたu-bevについて述べる。このu-bevは,bevの特徴をフラット化する前に,bevが複数の高さ層でシーンを判断できるようにすることにより,現在の最先端の技術を拡張したものである。
この拡張により、U-BEVの性能は最大4.11IoU向上する。
さらに、エンコードされたneural bevと微分可能なテンプレートマッチングを組み合わせることで、neural sd-mapデータ上で再ローカライズを行う。
モデルは完全にエンドツーエンドのトレーニングが可能で、同様の計算複雑性を持つトランスフォーマーベースのBEV手法を1.7から2.8mIoUで、BEVベースの再ローカライゼーションを26%以上向上させる。
関連論文リスト
- SparseBEV: High-Performance Sparse 3D Object Detection from Multi-Camera
Videos [20.51396212498941]
SparseBEVは完全にスパースな3Dオブジェクト検出器で、密度の高い物体よりも優れています。
nuScenesのテスト分割で、SparseBEVは67.5 NDSの最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2023-08-18T02:11:01Z) - FB-BEV: BEV Representation from Forward-Backward View Transformations [131.11787050205697]
本稿では,Bird-Eye-View (BEV) 表現のためのビュートランスフォーメーションモジュール (VTM) を提案する。
我々は提案したモジュールをFB-BEVでインスタンス化し、nuScenesテストセット上で62.4%のNDSの最先端結果を達成する。
論文 参考訳(メタデータ) (2023-08-04T10:26:55Z) - BEV-IO: Enhancing Bird's-Eye-View 3D Detection with Instance Occupancy [58.92659367605442]
我々は,BEV表現をインスタンス占有情報で拡張する新しい3次元検出パラダイムであるBEV-IOを提案する。
BEV-IOは、パラメータや計算オーバーヘッドの無視できる増加しか加えず、最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-26T11:16:12Z) - Leveraging BEV Representation for 360-degree Visual Place Recognition [14.497501941931759]
本稿では,360度視覚位置認識(VPR)におけるBird's Eye View表現の利点について検討する。
本稿では,特徴抽出,特徴集約,視覚-LiDAR融合におけるBEV表現を利用した新しいネットワークアーキテクチャを提案する。
提案手法は,2つのデータセットのアブレーションおよび比較研究において評価される。
論文 参考訳(メタデータ) (2023-05-23T08:29:42Z) - MetaBEV: Solving Sensor Failures for BEV Detection and Map Segmentation [104.12419434114365]
現実世界のアプリケーションでは、センサの破損や故障がパフォーマンスの低下につながります。
極端に現実世界の環境に対処するための,MetaBEVと呼ばれる堅牢なフレームワークを提案する。
MetaBEVは、完全なモダリティと腐敗したモダリティの両方に大きなマージンで、先行技術よりも優れています。
論文 参考訳(メタデータ) (2023-04-19T16:37:17Z) - Fast-BEV: Towards Real-time On-vehicle Bird's-Eye View Perception [43.080075390854205]
純粋なカメラベースのBird's-Eye-View(BEV)は、高価なLidarセンサーを取り除き、経済的自律運転のための実現可能なソリューションとなる。
本稿では,車載チップ上でリアルタイムなBEV認識を実現する,Fast-BEVと呼ばれるシンプルで効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-19T03:58:48Z) - BEV-SAN: Accurate BEV 3D Object Detection via Slice Attention Networks [28.024042528077125]
Bird's-Eye-View (BEV) 3D Object Detectionは自律運転システムにとって重要なマルチビュー技術である。
本研究では,BEVスライス注意ネットワーク (BEV-SAN) という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-12-02T15:14:48Z) - Delving into the Devils of Bird's-eye-view Perception: A Review,
Evaluation and Recipe [115.31507979199564]
鳥眼視(BEV)における知覚タスクの強力な表現の学習は、産業と学界の両方から注目されつつある。
センサーの構成が複雑化するにつれて、異なるセンサーからの複数のソース情報の統合と、統一されたビューにおける特徴の表現が重要になる。
BEV知覚の中核的な問題は、(a)視点からBEVへの視点変換を通して失われた3D情報を再構成する方法、(b)BEVグリッドにおける基底真理アノテーションの取得方法、(d)センサー構成が異なるシナリオでアルゴリズムを適応・一般化する方法にある。
論文 参考訳(メタデータ) (2022-09-12T15:29:13Z) - GitNet: Geometric Prior-based Transformation for Birds-Eye-View
Segmentation [105.19949897812494]
Birds-eye-view (BEV) セマンティックセマンティックセグメンテーションは自動運転に不可欠である。
本稿では,GitNetという新しい2段階のGeometry Preside-based Transformationフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-16T06:46:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。