論文の概要: F2BEV: Bird's Eye View Generation from Surround-View Fisheye Camera
Images for Automated Driving
- arxiv url: http://arxiv.org/abs/2303.03651v1
- Date: Tue, 7 Mar 2023 04:58:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-08 16:25:35.807098
- Title: F2BEV: Bird's Eye View Generation from Surround-View Fisheye Camera
Images for Automated Driving
- Title(参考訳): F2BEV:自動走行のための魚眼カメラ画像からの鳥の視線生成
- Authors: Ekta U. Samani, Feng Tao, Harshavardhan R. Dasari, Sihao Ding, Ashis
G. Banerjee
- Abstract要約: 魚眼画像からBEVの高さマップとセマンティックセグメンテーションマップを生成するためのベースラインF2BEVを導入する。
F2BEVは、空間情報のクエリと統合のための歪み対応空間横断モジュールで構成される。
合成FB-SSEMデータセットを用いて,F2BEVの単一タスクおよびマルチタスク変異を評価した。
- 参考スコア(独自算出の注目度): 3.286961611175469
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bird's Eye View (BEV) representations are tremendously useful for
perception-related automated driving tasks. However, generating BEVs from
surround-view fisheye camera images is challenging due to the strong
distortions introduced by such wide-angle lenses. We take the first step in
addressing this challenge and introduce a baseline, F2BEV, to generate BEV
height maps and semantic segmentation maps from fisheye images. F2BEV consists
of a distortion-aware spatial cross attention module for querying and
consolidating spatial information from fisheye image features in a
transformer-style architecture followed by a task-specific head. We evaluate
single-task and multi-task variants of F2BEV on our synthetic FB-SSEM dataset,
all of which generate better BEV height and segmentation maps (in terms of the
IoU) than a state-of-the-art BEV generation method operating on undistorted
fisheye images. We also demonstrate height map generation from real-world
fisheye images using F2BEV. An initial sample of our dataset is publicly
available at https://tinyurl.com/58jvnscy
- Abstract(参考訳): Bird's Eye View (BEV)表現は、認識に関連する自動運転タスクに非常に有用である。
しかし、広角レンズによる強い歪みのため、周囲の魚眼カメラ画像からBEVを生成することは困難である。
この課題に対処する第一歩として,魚眼画像からBEVの高さマップとセマンティックセグメンテーションマップを生成するためのベースラインF2BEVを導入する。
F2BEVは、トランスフォーマースタイルのアーキテクチャで魚眼画像の特徴から空間情報をクエリし、統合するための歪み対応空間横断監視モジュールと、タスク固有のヘッドから構成される。
合成FB-SSEMデータセット上でF2BEVの単一タスクおよびマルチタスクの変異を評価し,魚眼画像を用いた最新のBEV生成法よりも,BEVの高さとセグメンテーションマップ(IoU)が優れていることを示した。
また,F2BEVを用いた実世界の魚眼画像から高さマップを生成する。
データセットの最初のサンプルはhttps://tinyurl.com/58jvnscyで公開されている。
関連論文リスト
- VQ-Map: Bird's-Eye-View Map Layout Estimation in Tokenized Discrete Space via Vector Quantization [108.68014173017583]
Bird's-eye-view (BEV) マップのレイアウト推定には、エゴ車の周囲の環境要素のセマンティクスを正確に完全に理解する必要がある。
本稿では,Vector Quantized-Variational AutoEncoder (VQ-VAE) に似た生成モデルを用いて,トークン化された離散空間における高レベルのBEVセマンティクスの事前知識を取得することを提案する。
得られたBEVトークンには,異なるBEV要素のセマンティクスを包含したコードブックが組み込まれているため,スパースバックボーン画像特徴と得られたBEVトークンとを直接一致させることができる。
論文 参考訳(メタデータ) (2024-11-03T16:09:47Z) - Map It Anywhere (MIA): Empowering Bird's Eye View Mapping using Large-scale Public Data [3.1968751101341173]
トップダウンのBird's Eye View (BEV)マップは、下流タスクの豊かさと柔軟性のために、地上ロボットナビゲーションの一般的な表現である。
最近の手法では、ファーストパーソンビュー(FPV)画像からBEVマップを予測できることが示されている。
2つの大規模クラウドソースマッピングプラットフォームを利用することで,よりスケーラブルなマップ予測手法が実現可能であることを示す。
論文 参考訳(メタデータ) (2024-07-11T17:57:22Z) - DaF-BEVSeg: Distortion-aware Fisheye Camera based Bird's Eye View Segmentation with Occlusion Reasoning [7.012508171229966]
商業車両で一般的に使用されるサラウンドビュー魚眼カメラのBEVセグメンテーションに関する作業は限られている。
我々は,様々な道路タイプ,天気,照明条件からなるコニャータシミュレータを用いて,合成データセットを作成する。
我々は,BEVセグメンテーションを任意のカメラモデルで動作するように一般化し,多様なカメラを混合するのに有用である。
論文 参考訳(メタデータ) (2024-04-09T14:43:19Z) - DA-BEV: Unsupervised Domain Adaptation for Bird's Eye View Perception [104.87876441265593]
カメラのみのBird's Eye View (BEV)は3次元空間における環境認識に大きな可能性を示した。
非教師なし領域適応型BEVは、様々な未ラベル対象データから効果的に学習するが、まだ未探索である。
DA-BEVは、画像ビュー機能とBEV機能の相補性を利用して、ドメイン適応型BEV課題に対処する、最初のドメイン適応型カメラのみのBEVフレームワークである。
論文 参考訳(メタデータ) (2024-01-13T04:21:24Z) - FB-BEV: BEV Representation from Forward-Backward View Transformations [131.11787050205697]
本稿では,Bird-Eye-View (BEV) 表現のためのビュートランスフォーメーションモジュール (VTM) を提案する。
我々は提案したモジュールをFB-BEVでインスタンス化し、nuScenesテストセット上で62.4%のNDSの最先端結果を達成する。
論文 参考訳(メタデータ) (2023-08-04T10:26:55Z) - SA-BEV: Generating Semantic-Aware Bird's-Eye-View Feature for Multi-view
3D Object Detection [46.92706423094971]
画像特徴のセマンティックセグメンテーションに応じて背景情報をフィルタリングするセマンティック・アウェア・BEVプール(SA-BEVPool)を提案する。
また、セマンティック・アウェアのBEV機能と密接にマッチする効果的なデータ拡張戦略であるBEV-Pasteを提案する。
nuScenesの実験では、SA-BEVが最先端のパフォーマンスを達成することが示されている。
論文 参考訳(メタデータ) (2023-07-21T10:28:19Z) - BEV-SAN: Accurate BEV 3D Object Detection via Slice Attention Networks [28.024042528077125]
Bird's-Eye-View (BEV) 3D Object Detectionは自律運転システムにとって重要なマルチビュー技術である。
本研究では,BEVスライス注意ネットワーク (BEV-SAN) という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-12-02T15:14:48Z) - LaRa: Latents and Rays for Multi-Camera Bird's-Eye-View Semantic
Segmentation [43.12994451281451]
複数のカメラからの車両セマンティックセグメンテーションのための効率的なエンコーダデコーダである'LaRa'を提案する。
我々のアプローチは、複数のセンサーにまたがる情報を、コンパクトでリッチな潜在表現の集合に集約するクロスアテンションシステムを用いています。
論文 参考訳(メタデータ) (2022-06-27T13:37:50Z) - GitNet: Geometric Prior-based Transformation for Birds-Eye-View
Segmentation [105.19949897812494]
Birds-eye-view (BEV) セマンティックセマンティックセグメンテーションは自動運転に不可欠である。
本稿では,GitNetという新しい2段階のGeometry Preside-based Transformationフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-16T06:46:45Z) - M^2BEV: Multi-Camera Joint 3D Detection and Segmentation with Unified
Birds-Eye View Representation [145.6041893646006]
M$2$BEVは3Dオブジェクトの検出とマップのセグメンテーションを共同で行う統合フレームワークである。
M$2$BEVは、両方のタスクを統一モデルで推論し、効率を向上する。
論文 参考訳(メタデータ) (2022-04-11T13:43:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。