論文の概要: BirdSLAM: Monocular Multibody SLAM in Bird's-Eye View
- arxiv url: http://arxiv.org/abs/2011.07613v1
- Date: Sun, 15 Nov 2020 19:37:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-25 06:46:28.520145
- Title: BirdSLAM: Monocular Multibody SLAM in Bird's-Eye View
- Title(参考訳): BirdSLAM:Bird-Eye Viewにおける単眼多体SLAM
- Authors: Swapnil Daga, Gokul B. Nair, Anirudha Ramesh, Rahul Sajnani, Junaid
Ahmed Ansari and K. Madhava Krishna
- Abstract要約: 本研究では,単眼カメラのみを装備した自律走行プラットフォームのための新しい位置対応マッピングシステムであるBirdSLAMを提案する。
BirdSLAMは、ローカライゼーションとマッピングを行う構成空間として、正眼視(鳥眼視)を用いて、他の単眼SLAMシステムによる課題に取り組む。
- 参考スコア(独自算出の注目度): 10.250859125675259
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we present BirdSLAM, a novel simultaneous localization and
mapping (SLAM) system for the challenging scenario of autonomous driving
platforms equipped with only a monocular camera. BirdSLAM tackles challenges
faced by other monocular SLAM systems (such as scale ambiguity in monocular
reconstruction, dynamic object localization, and uncertainty in feature
representation) by using an orthographic (bird's-eye) view as the configuration
space in which localization and mapping are performed. By assuming only the
height of the ego-camera above the ground, BirdSLAM leverages single-view
metrology cues to accurately localize the ego-vehicle and all other traffic
participants in bird's-eye view. We demonstrate that our system outperforms
prior work that uses strictly greater information, and highlight the relevance
of each design decision via an ablation analysis.
- Abstract(参考訳): 本稿では,単眼カメラのみを搭載した自律走行プラットフォームの挑戦的なシナリオを実現するために,新しい位置対応マッピングシステムであるBirdSLAMを提案する。
BirdSLAMは、他の単分子SLAMシステム(モノクル再構成におけるスケールの曖昧さ、動的オブジェクトの局所化、特徴表現の不確実性など)が直面している課題に、ローカライズとマッピングを行う構成空間として、ホログラフィック(鳥の目)ビューを用いて取り組む。
地上のエゴカメラの高さだけを仮定することで、BirdSLAMはワンビューのメトロジーの手がかりを活用して、エゴ車両や他の鳥眼ビューの全ての交通参加者を正確にローカライズする。
我々は,より厳密な情報を用いた先行作業よりも優れた性能を示し,アブレーション解析による設計決定の関連性を明らかにする。
関連論文リスト
- TopView: Vectorising road users in a bird's eye view from uncalibrated street-level imagery with deep learning [2.7195102129095003]
本研究では、カメラの内在的・外在的パラメータを事前に把握せずに、画像から鳥の視線を推定するための簡単なアプローチを提案する。
このフレームワークは、カメラフィードからライブマップを生成し、都市規模での社会的距離違反を分析するために、いくつかのアプリケーションに適用されている。
論文 参考訳(メタデータ) (2024-12-18T21:55:58Z) - Lightweight Vision Transformer with Bidirectional Interaction [63.65115590184169]
本研究では,視覚変換器の局所的・グローバル的情報をモデル化するためのFASA機構を提案する。
FASAに基づいて、我々はFAT(Fully Adaptive Transformer)ファミリーという軽量なビジョンバックボーンのファミリーを開発した。
論文 参考訳(メタデータ) (2023-06-01T06:56:41Z) - NEWTON: Neural View-Centric Mapping for On-the-Fly Large-Scale SLAM [51.21564182169607]
Newtonは、リアルタイム観測に基づいて動的にニューラルネットワークを構築するビュー中心のマッピング手法である。
本手法は,複数のニューラルネットワークを用いてシーンを表現することで,ループクロージャとシーン境界更新を用いたカメラポーズ更新を可能にする。
実験の結果,既存の世界中心型ニューラルネットワークSLAMシステムよりも優れた性能を示した。
論文 参考訳(メタデータ) (2023-03-23T20:22:01Z) - Street-View Image Generation from a Bird's-Eye View Layout [95.36869800896335]
近年,Bird's-Eye View (BEV) の知覚が注目されている。
自動運転のためのデータ駆動シミュレーションは、最近の研究の焦点となっている。
本稿では,現実的かつ空間的に一貫した周辺画像を合成する条件生成モデルであるBEVGenを提案する。
論文 参考訳(メタデータ) (2023-01-11T18:39:34Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - Improved Real-Time Monocular SLAM Using Semantic Segmentation on
Selective Frames [15.455647477995312]
先進的運転支援システムと自律運転システムでは単眼同時位置決めマッピング(slam)が登場している。
本稿では,深層学習に基づくセマンティックセグメンテーションを用いたリアルタイム一眼SLAMの改良を提案する。
6本の映像列を用いた実験により,提案方式により精度の高い軌道追尾精度が得られた。
論文 参考訳(メタデータ) (2021-04-30T22:34:45Z) - Understanding Bird's-Eye View Semantic HD-Maps Using an Onboard
Monocular Camera [110.83289076967895]
本研究では,ワンオンボードカメラからの映像入力を用いて,セマンティック・バードズ・アイ・ビューHDマップのオンライン推定形式でのシーン理解について検討した。
実験では,HDマップの理解において,考慮すべき側面が相補的であることを実証した。
論文 参考訳(メタデータ) (2020-12-05T14:39:14Z) - SLAM in the Field: An Evaluation of Monocular Mapping and Localization
on Challenging Dynamic Agricultural Environment [12.666030953871186]
本稿では,オフラインとリアルタイムのMulti-View Stereo(MVS)再構成アルゴリズムと,スパース,間接的,単眼的視覚SLAMを組み合わせたシステムについて述べる。
モノクロSLAMを使用することで、LiDARに依存しないため、既存のデバイスとの統合がずっと簡単になります。
論文 参考訳(メタデータ) (2020-11-02T16:53:35Z) - Lift, Splat, Shoot: Encoding Images From Arbitrary Camera Rigs by
Implicitly Unprojecting to 3D [100.93808824091258]
本稿では,任意の数のカメラから映像データを与えられたシーンの鳥眼ビュー表現を直接抽出するエンド・ツー・エンドアーキテクチャを提案する。
我々のアプローチは、それぞれの画像をそれぞれのカメラのフラストラムに個別に“リフト”し、すべてのフラストラムを鳥の目視格子に“プレート”することです。
提案モデルにより推定される表現は,テンプレートトラジェクトリを鳥眼ビューのコストマップに"撮影"することで,終末動作計画の解釈を可能にすることを示す。
論文 参考訳(メタデータ) (2020-08-13T06:29:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。