論文の概要: S-BEV: Semantic Birds-Eye View Representation for Weather and Lighting
Invariant 3-DoF Localization
- arxiv url: http://arxiv.org/abs/2101.09569v1
- Date: Sat, 23 Jan 2021 19:37:09 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-19 10:48:23.609382
- Title: S-BEV: Semantic Birds-Eye View Representation for Weather and Lighting
Invariant 3-DoF Localization
- Title(参考訳): S-BEV:Smantic Birds-Eye View Representation for Weather and Lighting Invariant 3-DoF Localization
- Authors: Mokshith Voodarla, Shubham Shrivastava, Sagar Manglani, Ankit Vora,
Siddharth Agarwal, Punarjay Chakravarty
- Abstract要約: S-BEV(Semantic Bird's Eye View)シグネチャは、ビジョンベースの車両再ローカリゼーションのための軽量、天候および照明不変性について説明します。
- 参考スコア(独自算出の注目度): 5.668124846154997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We describe a light-weight, weather and lighting invariant, Semantic Bird's
Eye View (S-BEV) signature for vision-based vehicle re-localization. A
topological map of S-BEV signatures is created during the first traversal of
the route, which are used for coarse localization in subsequent route
traversal. A fine-grained localizer is then trained to output the global 3-DoF
pose of the vehicle using its S-BEV and its coarse localization. We conduct
experiments on vKITTI2 virtual dataset and show the potential of the S-BEV to
be robust to weather and lighting. We also demonstrate results with 2 vehicles
on a 22 km long highway route in the Ford AV dataset.
- Abstract(参考訳): 視覚に基づく車両再局在化のための,軽量で気象・照明の不変なs-bev(s-bev)シグネチャについて述べる。
S-BEVシグネチャのトポロジカルマップは、ルートの最初のトラバース中に作成され、その後のルートトラバースにおける粗いローカライゼーションに使用される。
微粒なローカライザは、S-BEVと粗いローカライゼーションを使用して、車両のグローバルな3DoFポーズを出力するように訓練される。
vkitti2仮想データセットの実験を行い、s-bevが気象や照明に堅牢になる可能性を示す。
また、フォードavデータセット内の22kmの高速道路で2台の車両で結果を示す。
関連論文リスト
- GitNet: Geometric Prior-based Transformation for Birds-Eye-View
Segmentation [105.19949897812494]
Birds-eye-view (BEV) セマンティックセマンティックセグメンテーションは自動運転に不可欠である。
本稿では,GitNetという新しい2段階のGeometry Preside-based Transformationフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-16T06:46:45Z) - BEVFormer: Learning Bird's-Eye-View Representation from Multi-Camera
Images via Spatiotemporal Transformers [39.253627257740085]
マルチカメラ画像に基づく3次元検出やマップセグメンテーションを含む3次元視覚認識タスクは、自律運転システムに不可欠である。
本稿では,複数の自律運転認識タスクをサポートするために,変圧器を用いた統合BEV表現を学習するBEVFormerという新しいフレームワークを提案する。
BEVFormerは低視認性条件下での物体の速度推定とリコールの精度を著しく向上することを示す。
論文 参考訳(メタデータ) (2022-03-31T17:59:01Z) - PersFormer: 3D Lane Detection via Perspective Transformer and the
OpenLane Benchmark [109.03773439461615]
PersFormerは、新しいトランスフォーマーベースの空間特徴変換モジュールを備えた、エンドツーエンドのモノクル3Dレーン検出器である。
高品質なアノテーションとシナリオの多様性を備えたOpenLaneと呼ばれる,最初の大規模な3Dレーンデータセットの1つをリリースしました。
論文 参考訳(メタデータ) (2022-03-21T16:12:53Z) - Vision-based Large-scale 3D Semantic Mapping for Autonomous Driving
Applications [53.553924052102126]
ステレオカメラシステムのみに基づく3次元セマンティックマッピングのための完全なパイプラインを提案する。
パイプラインは、直接視覚的オドメトリーのフロントエンドと、グローバルな時間統合のためのバックエンドで構成されている。
本稿では,3次元点ラベルの品質と一貫性を向上する,単純だが効果的な投票方式を提案する。
論文 参考訳(メタデータ) (2022-03-02T13:18:38Z) - Structured Bird's-Eye-View Traffic Scene Understanding from Onboard
Images [128.881857704338]
本研究では,BEV座標における局所道路網を表す有向グラフを,単眼カメラ画像から抽出する問題について検討する。
提案手法は,BEV平面上の動的物体を検出するために拡張可能であることを示す。
我々は、強力なベースラインに対するアプローチを検証するとともに、ネットワークが優れたパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2021-10-05T12:40:33Z) - Bird's-Eye-View Panoptic Segmentation Using Monocular Frontal View
Images [4.449481309681663]
本研究では,Bird's-Eye-View (BEV) マップにおいて,高密度パノプティックセグメンテーションマップを直接予測するエンド・ツー・エンドの学習手法を提案する。
私たちのアーキテクチャはトップダウンパラダイムに従っており、新しい高密度トランスモジュールを組み込んでいます。
我々は、FV-BEV変換の感度を数学的に定式化し、BEV空間のピクセルをインテリジェントに重み付けすることができる。
論文 参考訳(メタデータ) (2021-08-06T17:59:11Z) - Cycle and Semantic Consistent Adversarial Domain Adaptation for Reducing
Simulation-to-Real Domain Shift in LiDAR Bird's Eye View [110.83289076967895]
ドメイン適応プロセス中に関心のある小さなオブジェクトの情報を保存するために,事前の意味分類を用いたサイクガンに基づくbevドメイン適応法を提案する。
生成したBEVの品質は,KITTI 3D Object Detection Benchmarkの最先端3Dオブジェクト検出フレームワークを用いて評価されている。
論文 参考訳(メタデータ) (2021-04-22T12:47:37Z) - Monocular 3D Vehicle Detection Using Uncalibrated Traffic Cameras
through Homography [12.062095895630563]
本稿では,1台の交通カメラから3次元世界における車両の位置とポーズを抽出する手法を提案する。
道路平面と画像平面の相同性が3D車両の検出に不可欠であることを観察する。
本稿では,BEV画像の歪み検出精度を高めるためのtextittailedr-box と textitdual-view Network アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-03-29T02:57:37Z) - Understanding Bird's-Eye View Semantic HD-Maps Using an Onboard
Monocular Camera [110.83289076967895]
本研究では,ワンオンボードカメラからの映像入力を用いて,セマンティック・バードズ・アイ・ビューHDマップのオンライン推定形式でのシーン理解について検討した。
実験では,HDマップの理解において,考慮すべき側面が相補的であることを実証した。
論文 参考訳(メタデータ) (2020-12-05T14:39:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。