論文の概要: S-BEV: Semantic Birds-Eye View Representation for Weather and Lighting
Invariant 3-DoF Localization
- arxiv url: http://arxiv.org/abs/2101.09569v1
- Date: Sat, 23 Jan 2021 19:37:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 10:48:23.609382
- Title: S-BEV: Semantic Birds-Eye View Representation for Weather and Lighting
Invariant 3-DoF Localization
- Title(参考訳): S-BEV:Smantic Birds-Eye View Representation for Weather and Lighting Invariant 3-DoF Localization
- Authors: Mokshith Voodarla, Shubham Shrivastava, Sagar Manglani, Ankit Vora,
Siddharth Agarwal, Punarjay Chakravarty
- Abstract要約: S-BEV(Semantic Bird's Eye View)シグネチャは、ビジョンベースの車両再ローカリゼーションのための軽量、天候および照明不変性について説明します。
- 参考スコア(独自算出の注目度): 5.668124846154997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We describe a light-weight, weather and lighting invariant, Semantic Bird's
Eye View (S-BEV) signature for vision-based vehicle re-localization. A
topological map of S-BEV signatures is created during the first traversal of
the route, which are used for coarse localization in subsequent route
traversal. A fine-grained localizer is then trained to output the global 3-DoF
pose of the vehicle using its S-BEV and its coarse localization. We conduct
experiments on vKITTI2 virtual dataset and show the potential of the S-BEV to
be robust to weather and lighting. We also demonstrate results with 2 vehicles
on a 22 km long highway route in the Ford AV dataset.
- Abstract(参考訳): 視覚に基づく車両再局在化のための,軽量で気象・照明の不変なs-bev(s-bev)シグネチャについて述べる。
S-BEVシグネチャのトポロジカルマップは、ルートの最初のトラバース中に作成され、その後のルートトラバースにおける粗いローカライゼーションに使用される。
微粒なローカライザは、S-BEVと粗いローカライゼーションを使用して、車両のグローバルな3DoFポーズを出力するように訓練される。
vkitti2仮想データセットの実験を行い、s-bevが気象や照明に堅牢になる可能性を示す。
また、フォードavデータセット内の22kmの高速道路で2台の車両で結果を示す。
関連論文リスト
- Tri-Perspective View for Vision-Based 3D Semantic Occupancy Prediction [84.94140661523956]
本稿では,2つの垂直面を追加してBEVに付随するトリ・パースペクティブ・ビュー(TPV)表現を提案する。
3次元空間の各点を3次元平面上の投影された特徴をまとめてモデル化する。
実験結果から,本モデルは全ボクセルのセマンティック占有率を効果的に予測できることが示唆された。
論文 参考訳(メタデータ) (2023-02-15T17:58:10Z) - SkyEye: Self-Supervised Bird's-Eye-View Semantic Mapping Using Monocular
Frontal View Images [26.34702432184092]
本研究では,前景からの単一単眼画像を用いた鳥眼図(BEV)意味マップ作成のための,最初の自己教師型アプローチを提案する。
トレーニングでは、ビデオシーケンスのより容易に利用できるFVセマンティックアノテーションを活用することで、BEVの基底真理アノテーションの必要性を克服する。
提案手法は最先端の完全教師付き手法と同等に動作し,BEVにおける直接監督の1%のみを用いて競争結果を得る。
論文 参考訳(メタデータ) (2023-02-08T18:02:09Z) - Street-View Image Generation from a Bird's-Eye View Layout [104.3530667176165]
本稿では,交通シナリオのBEVレイアウトに適合する現実的かつ空間的に整合した周辺画像を合成する条件生成モデルを提案する。
我々のモデルは、道路や車線を正確に描画できるだけでなく、異なる気象条件や日時の下で交通シーンを生成することができる。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - BEV-SAN: Accurate BEV 3D Object Detection via Slice Attention Networks [28.024042528077125]
Bird's-Eye-View (BEV) 3D Object Detectionは自律運転システムにとって重要なマルチビュー技術である。
本研究では,BEVスライス注意ネットワーク (BEV-SAN) という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-12-02T15:14:48Z) - Delving into the Devils of Bird's-eye-view Perception: A Review,
Evaluation and Recipe [153.47511464278233]
鳥眼視(BEV)における知覚タスクの強力な表現の学習は、産業と学界の両方から注目されつつある。
本稿では,BEVの認知に関する最近の研究を概観し,様々なソリューションの詳細な分析を行う。
我々は、カメラ、LiDAR、融合入力を含むBEV知覚タスクの性能を向上させるための実用的なガイドブックの完全なセットを紹介する。
論文 参考訳(メタデータ) (2022-09-12T15:29:13Z) - Satellite Image Based Cross-view Localization for Autonomous Vehicle [78.66482504221044]
本稿では,市販の高精細衛星画像を使用可能な地図として利用することにより,良好な精度でクロスビュー車両のローカライゼーションを実現することができることを示す。
従来の方法では、このタスクを画像検索、すなわち、車両が捉えた地上画像と衛星画像とのマッチングとしてのみ扱う。
論文 参考訳(メタデータ) (2022-07-27T13:16:39Z) - GitNet: Geometric Prior-based Transformation for Birds-Eye-View
Segmentation [105.19949897812494]
Birds-eye-view (BEV) セマンティックセマンティックセグメンテーションは自動運転に不可欠である。
本稿では,GitNetという新しい2段階のGeometry Preside-based Transformationフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-16T06:46:45Z) - BEVFormer: Learning Bird's-Eye-View Representation from Multi-Camera
Images via Spatiotemporal Transformers [39.253627257740085]
マルチカメラ画像に基づく3次元検出やマップセグメンテーションを含む3次元視覚認識タスクは、自律運転システムに不可欠である。
本稿では,複数の自律運転認識タスクをサポートするために,変圧器を用いた統合BEV表現を学習するBEVFormerという新しいフレームワークを提案する。
BEVFormerは低視認性条件下での物体の速度推定とリコールの精度を著しく向上することを示す。
論文 参考訳(メタデータ) (2022-03-31T17:59:01Z) - Structured Bird's-Eye-View Traffic Scene Understanding from Onboard
Images [128.881857704338]
本研究では,BEV座標における局所道路網を表す有向グラフを,単眼カメラ画像から抽出する問題について検討する。
提案手法は,BEV平面上の動的物体を検出するために拡張可能であることを示す。
我々は、強力なベースラインに対するアプローチを検証するとともに、ネットワークが優れたパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-10-05T12:40:33Z) - Bird's-Eye-View Panoptic Segmentation Using Monocular Frontal View
Images [4.449481309681663]
本研究では,Bird's-Eye-View (BEV) マップにおいて,高密度パノプティックセグメンテーションマップを直接予測するエンド・ツー・エンドの学習手法を提案する。
私たちのアーキテクチャはトップダウンパラダイムに従っており、新しい高密度トランスモジュールを組み込んでいます。
我々は、FV-BEV変換の感度を数学的に定式化し、BEV空間のピクセルをインテリジェントに重み付けすることができる。
論文 参考訳(メタデータ) (2021-08-06T17:59:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。