論文の概要: S-BEV: Semantic Birds-Eye View Representation for Weather and Lighting
Invariant 3-DoF Localization
- arxiv url: http://arxiv.org/abs/2101.09569v1
- Date: Sat, 23 Jan 2021 19:37:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 10:48:23.609382
- Title: S-BEV: Semantic Birds-Eye View Representation for Weather and Lighting
Invariant 3-DoF Localization
- Title(参考訳): S-BEV:Smantic Birds-Eye View Representation for Weather and Lighting Invariant 3-DoF Localization
- Authors: Mokshith Voodarla, Shubham Shrivastava, Sagar Manglani, Ankit Vora,
Siddharth Agarwal, Punarjay Chakravarty
- Abstract要約: S-BEV(Semantic Bird's Eye View)シグネチャは、ビジョンベースの車両再ローカリゼーションのための軽量、天候および照明不変性について説明します。
- 参考スコア(独自算出の注目度): 5.668124846154997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We describe a light-weight, weather and lighting invariant, Semantic Bird's
Eye View (S-BEV) signature for vision-based vehicle re-localization. A
topological map of S-BEV signatures is created during the first traversal of
the route, which are used for coarse localization in subsequent route
traversal. A fine-grained localizer is then trained to output the global 3-DoF
pose of the vehicle using its S-BEV and its coarse localization. We conduct
experiments on vKITTI2 virtual dataset and show the potential of the S-BEV to
be robust to weather and lighting. We also demonstrate results with 2 vehicles
on a 22 km long highway route in the Ford AV dataset.
- Abstract(参考訳): 視覚に基づく車両再局在化のための,軽量で気象・照明の不変なs-bev(s-bev)シグネチャについて述べる。
S-BEVシグネチャのトポロジカルマップは、ルートの最初のトラバース中に作成され、その後のルートトラバースにおける粗いローカライゼーションに使用される。
微粒なローカライザは、S-BEVと粗いローカライゼーションを使用して、車両のグローバルな3DoFポーズを出力するように訓練される。
vkitti2仮想データセットの実験を行い、s-bevが気象や照明に堅牢になる可能性を示す。
また、フォードavデータセット内の22kmの高速道路で2台の車両で結果を示す。
関連論文リスト
- RaCFormer: Towards High-Quality 3D Object Detection via Query-based Radar-Camera Fusion [58.77329237533034]
本稿では3次元物体検出の精度を高めるために,Raar-Camera fusion transformer (RaCFormer)を提案する。
RaCFormerは64.9%のmAPと70.2%のNDSをnuScene上で達成し、LiDARベースの検出器よりも優れている。
論文 参考訳(メタデータ) (2024-12-17T09:47:48Z) - VQ-Map: Bird's-Eye-View Map Layout Estimation in Tokenized Discrete Space via Vector Quantization [108.68014173017583]
Bird's-eye-view (BEV) マップのレイアウト推定には、エゴ車の周囲の環境要素のセマンティクスを正確に完全に理解する必要がある。
本稿では,Vector Quantized-Variational AutoEncoder (VQ-VAE) に似た生成モデルを用いて,トークン化された離散空間における高レベルのBEVセマンティクスの事前知識を取得することを提案する。
得られたBEVトークンには,異なるBEV要素のセマンティクスを包含したコードブックが組み込まれているため,スパースバックボーン画像特徴と得られたBEVトークンとを直接一致させることができる。
論文 参考訳(メタデータ) (2024-11-03T16:09:47Z) - RoadBEV: Road Surface Reconstruction in Bird's Eye View [55.0558717607946]
道路表面の状態、特に幾何学的プロファイルは、自動運転車の走行性能に大きな影響を与え、視覚に基づくオンライン道路再建は、事前に道路情報を確実に捉えている。
Bird's-Eye-View (BEV) の認識は、より信頼性が高く正確な再構築の可能性を秘めている。
本稿では,BEVにおける道路高架化モデルとして,RoadBEV-monoとRoadBEV-stereoの2つのモデルを提案する。
論文 参考訳(メタデータ) (2024-04-09T20:24:29Z) - U-BEV: Height-aware Bird's-Eye-View Segmentation and Neural Map-based Relocalization [81.76044207714637]
GPS受信が不十分な場合やセンサベースのローカライゼーションが失敗する場合、インテリジェントな車両には再ローカライゼーションが不可欠である。
Bird's-Eye-View (BEV)セグメンテーションの最近の進歩は、局所的な景観の正確な推定を可能にする。
本稿では,U-NetにインスパイアされたアーキテクチャであるU-BEVについて述べる。
論文 参考訳(メタデータ) (2023-10-20T18:57:38Z) - Bird's-Eye-View Scene Graph for Vision-Language Navigation [85.72725920024578]
視覚言語ナビゲーション(VLN)は、人間の指示に従って3D環境をナビゲートするエージェントである。
室内環境のシーンレイアウトと幾何学的手がかりを符号化するために,多段階のBEV表現を利用するBEVシーングラフ(BSG)を提案する。
BSGに基づいて、エージェントは、ローカルなBEVグリッドレベル決定スコアとグローバルなグラフレベル決定スコアを予測し、パノラマビューのサブビュー選択スコアと組み合わせる。
論文 参考訳(メタデータ) (2023-08-09T07:48:20Z) - Leveraging BEV Representation for 360-degree Visual Place Recognition [14.497501941931759]
本稿では,360度視覚位置認識(VPR)におけるBird's Eye View表現の利点について検討する。
本稿では,特徴抽出,特徴集約,視覚-LiDAR融合におけるBEV表現を利用した新しいネットワークアーキテクチャを提案する。
提案手法は,2つのデータセットのアブレーションおよび比較研究において評価される。
論文 参考訳(メタデータ) (2023-05-23T08:29:42Z) - F2BEV: Bird's Eye View Generation from Surround-View Fisheye Camera
Images for Automated Driving [3.286961611175469]
魚眼画像からBEVの高さマップとBEVセマンティックセグメンテーションマップを生成するためのベースラインF2BEVを導入する。
F2BEVは、空間情報のクエリと統合のための歪み対応空間横断モジュールで構成される。
合成FB-SSEMデータセットを用いて,F2BEVの単一タスクおよびマルチタスク変異を評価した。
論文 参考訳(メタデータ) (2023-03-07T04:58:57Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - BEV-SAN: Accurate BEV 3D Object Detection via Slice Attention Networks [28.024042528077125]
Bird's-Eye-View (BEV) 3D Object Detectionは自律運転システムにとって重要なマルチビュー技術である。
本研究では,BEVスライス注意ネットワーク (BEV-SAN) という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-12-02T15:14:48Z) - BEVFormer: Learning Bird's-Eye-View Representation from Multi-Camera
Images via Spatiotemporal Transformers [39.253627257740085]
マルチカメラ画像に基づく3次元検出やマップセグメンテーションを含む3次元視覚認識タスクは、自律運転システムに不可欠である。
本稿では,複数の自律運転認識タスクをサポートするために,変圧器を用いた統合BEV表現を学習するBEVFormerという新しいフレームワークを提案する。
BEVFormerは低視認性条件下での物体の速度推定とリコールの精度を著しく向上することを示す。
論文 参考訳(メタデータ) (2022-03-31T17:59:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。