論文の概要: Multi-Session Visual SLAM for Illumination Invariant Localization in
Indoor Environments
- arxiv url: http://arxiv.org/abs/2103.03827v1
- Date: Fri, 5 Mar 2021 17:41:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-08 14:41:43.140770
- Title: Multi-Session Visual SLAM for Illumination Invariant Localization in
Indoor Environments
- Title(参考訳): 室内環境における照明不変化のためのマルチセッション視覚SLAM
- Authors: Mathieu Labb\'e and Fran\c{c}ois Michaud
- Abstract要約: 異なる照明条件下で同じ位置の複数のバリエーションからなるマップを作成するために,マルチセッション視覚SLAM手法を提案する。
この手法は6つのマッピングと6つのローカライゼーションセッションで、実際のアパートでGoogle Tangoの電話を使って日没時に30分間隔で記録されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For robots navigating using only a camera, illumination changes in indoor
environments can cause localization failures during autonomous navigation. In
this paper, we present a multi-session visual SLAM approach to create a map
made of multiple variations of the same locations in different illumination
conditions. The multi-session map can then be used at any hour of the day for
improved localization capability. The approach presented is independent of the
visual features used, and this is demonstrated by comparing localization
performance between multi-session maps created using the RTAB-Map library with
SURF, SIFT, BRIEF, FREAK, BRISK, KAZE, DAISY and SuperPoint visual features.
The approach is tested on six mapping and six localization sessions recorded at
30 minutes intervals during sunset using a Google Tango phone in a real
apartment.
- Abstract(参考訳): カメラのみを使用して移動するロボットの場合、屋内環境の照明変化は、自律ナビゲーション中にローカリゼーションの失敗を引き起こす可能性があります。
本稿では,異なる照明条件下で同じ位置の複数のバリエーションからなるマップを作成するために,マルチセッション視覚SLAM手法を提案する。
マルチセッションマップは、その日の任意の時間に、ローカライゼーション機能を改善するために使用できる。
RTAB-Mapライブラリを使用して作成されたマルチセッションマップとSURF, SIFT, BRIEF, FREAK, BRISK, KAZE, DAISY, SuperPointのビジュアル機能間のローカリゼーションパフォーマンスを比較することで、このアプローチが実証されている。
この手法は6つのマッピングと6つのローカライゼーションセッションで、実際のアパートでGoogle Tangoの電話を使って日没時に30分間隔で記録されている。
関連論文リスト
- Monocular Visual Place Recognition in LiDAR Maps via Cross-Modal State Space Model and Multi-View Matching [2.400446821380503]
我々はRGB画像とポイントクラウドの両方のディスクリプタを学習するための効率的なフレームワークを導入する。
視覚状態空間モデル(VMamba)をバックボーンとして、ピクセルビューとシーンの共同トレーニング戦略を採用している。
視覚的な3Dポイントオーバーラップ戦略は、マルチビューの監視のために、ポイントクラウドビューとRGBイメージの類似性を定量化するように設計されている。
論文 参考訳(メタデータ) (2024-10-08T18:31:41Z) - Visual Localization in 3D Maps: Comparing Point Cloud, Mesh, and NeRF Representations [8.522160106746478]
様々な3次元地図表現にまたがる単一カメラ画像のローカライズが可能なグローバルな視覚的ローカライゼーションシステムを提案する。
本システムは,シーンの新たなビューを合成し,RGBと深度画像のペアを作成することでデータベースを生成する。
NeRF合成画像は、クエリ画像を平均72%の成功率でローカライズし、優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-21T19:37:17Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - Audio Visual Language Maps for Robot Navigation [30.33041779258644]
音声, 視覚, 言語情報からのクロスモーダル情報を格納するための3次元空間地図表現を統一したAVLMap(Audio-Visual-Language Map)を提案する。
AVLMapsは、インターネット規模で事前訓練されたマルチモーダル基礎モデルのオープン語彙機能を統合する。
ナビゲーションの文脈において、AVLMapsは、例えば、テキスト記述、画像、ランドマークの音声スニペットなどのマルチモーダルクエリに基づいて、ロボットシステムが地図内の目標をインデックスできることを示す。
論文 参考訳(メタデータ) (2023-03-13T23:17:51Z) - A Survey on Visual Map Localization Using LiDARs and Cameras [0.0]
視覚マップのローカライゼーションを2段階プロセスとして定義する。
位置認識の段階では、視覚センサ出力とジオタグ付き地図領域の集合とを比較して、地図内の車両の初期位置を決定する。
地図距離定位の段階では、車両が地図を横切りながら追跡され、視界センサの出力と現在の地図の面積を連続的に調整する。
論文 参考訳(メタデータ) (2022-08-05T20:11:18Z) - TANDEM: Tracking and Dense Mapping in Real-time using Deep Multi-view
Stereo [55.30992853477754]
本稿では,リアルタイムな単分子追跡と高密度フレームワークであるTANDEMを紹介する。
ポーズ推定のために、TANDEMはアライメントのスライディングウィンドウに基づいて光度バンドル調整を行う。
TANDEMは最先端のリアルタイム3D再構成性能を示す。
論文 参考訳(メタデータ) (2021-11-14T19:01:02Z) - Semantic Image Alignment for Vehicle Localization [111.59616433224662]
単眼カメラからのセマンティックセグメンテーションを用いた高密度セマンティックマップにおける車両位置推定手法を提案する。
既存の視覚的ローカライゼーションアプローチとは対照的に、システムは追加のキーポイント機能、手作りのローカライゼーションランドマーク抽出器、高価なLiDARセンサーを必要としない。
論文 参考訳(メタデータ) (2021-10-08T14:40:15Z) - End-to-end Multi-modal Video Temporal Grounding [105.36814858748285]
ビデオから補完情報を抽出するマルチモーダルフレームワークを提案する。
我々は、外見にRGB画像、運動に光学フロー、画像構造に深度マップを採用する。
本稿では、Charades-STAおよびActivityNet Captionsデータセットの実験を行い、提案手法が最先端のアプローチに対して好適に動作することを示す。
論文 参考訳(メタデータ) (2021-07-12T17:58:10Z) - Learning to Localize Using a LiDAR Intensity Map [87.04427452634445]
自動運転車のリアルタイム・キャリブレーション非依存・効果的なローカライズシステムを提案する。
私たちの方法は、オンラインLiDARスイープと強度マップをジョイントディープ埋め込みスペースに埋め込む方法を学びます。
システム全体の動作は15hzで,さまざまなlidarセンサや環境においてセンチメートルレベルの精度を実現しています。
論文 参考訳(メタデータ) (2020-12-20T11:56:23Z) - Beyond Controlled Environments: 3D Camera Re-Localization in Changing
Indoor Scenes [74.9814252247282]
長期カメラ再配置は多くのコンピュータビジョンとロボット工学の応用において重要な課題である。
RIO10は、屋内シーンに焦点を当てた、新しい長期カメラ再ローカライゼーションベンチマークである。
論文 参考訳(メタデータ) (2020-08-05T09:02:12Z) - GPU-accelerated Hierarchical Panoramic Image Feature Retrieval for
Indoor Localization [1.6752182911522522]
本稿では,パノラマ画像特徴を用いた視覚的ランドマークのモデル化により,屋内の局所化問題をマルチメディア検索問題に定式化する。
実データを構築するキャンパスでの実験では、リアルタイムの応答とロバストなローカライゼーションが示されている。
論文 参考訳(メタデータ) (2020-06-16T01:42:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。