論文の概要: Multi-Session Visual SLAM for Illumination Invariant Localization in
Indoor Environments
- arxiv url: http://arxiv.org/abs/2103.03827v1
- Date: Fri, 5 Mar 2021 17:41:27 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-08 14:41:43.140770
- Title: Multi-Session Visual SLAM for Illumination Invariant Localization in
Indoor Environments
- Title(参考訳): 室内環境における照明不変化のためのマルチセッション視覚SLAM
- Authors: Mathieu Labb\'e and Fran\c{c}ois Michaud
- Abstract要約: 異なる照明条件下で同じ位置の複数のバリエーションからなるマップを作成するために,マルチセッション視覚SLAM手法を提案する。
この手法は6つのマッピングと6つのローカライゼーションセッションで、実際のアパートでGoogle Tangoの電話を使って日没時に30分間隔で記録されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For robots navigating using only a camera, illumination changes in indoor
environments can cause localization failures during autonomous navigation. In
this paper, we present a multi-session visual SLAM approach to create a map
made of multiple variations of the same locations in different illumination
conditions. The multi-session map can then be used at any hour of the day for
improved localization capability. The approach presented is independent of the
visual features used, and this is demonstrated by comparing localization
performance between multi-session maps created using the RTAB-Map library with
SURF, SIFT, BRIEF, FREAK, BRISK, KAZE, DAISY and SuperPoint visual features.
The approach is tested on six mapping and six localization sessions recorded at
30 minutes intervals during sunset using a Google Tango phone in a real
apartment.
- Abstract(参考訳): カメラのみを使用して移動するロボットの場合、屋内環境の照明変化は、自律ナビゲーション中にローカリゼーションの失敗を引き起こす可能性があります。
本稿では,異なる照明条件下で同じ位置の複数のバリエーションからなるマップを作成するために,マルチセッション視覚SLAM手法を提案する。
マルチセッションマップは、その日の任意の時間に、ローカライゼーション機能を改善するために使用できる。
RTAB-Mapライブラリを使用して作成されたマルチセッションマップとSURF, SIFT, BRIEF, FREAK, BRISK, KAZE, DAISY, SuperPointのビジュアル機能間のローカリゼーションパフォーマンスを比較することで、このアプローチが実証されている。
この手法は6つのマッピングと6つのローカライゼーションセッションで、実際のアパートでGoogle Tangoの電話を使って日没時に30分間隔で記録されている。
関連論文リスト
- DUFOMap: Efficient Dynamic Awareness Mapping [3.6683744698761704]
現実世界のダイナミックな性質は、ロボット工学における大きな課題の1つだ。
現在のソリューションは後処理によく適用され、パラメータチューニングによって特定のデータセットの設定を調整することができる。
本研究では,効率的なオンライン処理を目的とした動的認識マッピングフレームワークであるDUFOMapを提案する。
論文 参考訳(メタデータ) (2024-03-03T09:07:16Z) - Active Visual Localization for Multi-Agent Collaboration: A Data-Driven
Approach [51.75186763756072]
本研究は、視点変化の課題を克服するために、アクティブな視覚的ローカライゼーションをどのように利用できるかを検討する。
具体的には、与えられた場所における最適な視点を選択する問題に焦点をあてる。
その結果,既存の手法と比較して,データ駆動方式の方が優れた性能を示した。
論文 参考訳(メタデータ) (2023-10-04T08:18:30Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - Audio Visual Language Maps for Robot Navigation [30.33041779258644]
音声, 視覚, 言語情報からのクロスモーダル情報を格納するための3次元空間地図表現を統一したAVLMap(Audio-Visual-Language Map)を提案する。
AVLMapsは、インターネット規模で事前訓練されたマルチモーダル基礎モデルのオープン語彙機能を統合する。
ナビゲーションの文脈において、AVLMapsは、例えば、テキスト記述、画像、ランドマークの音声スニペットなどのマルチモーダルクエリに基づいて、ロボットシステムが地図内の目標をインデックスできることを示す。
論文 参考訳(メタデータ) (2023-03-13T23:17:51Z) - A Survey on Visual Map Localization Using LiDARs and Cameras [0.0]
視覚マップのローカライゼーションを2段階プロセスとして定義する。
位置認識の段階では、視覚センサ出力とジオタグ付き地図領域の集合とを比較して、地図内の車両の初期位置を決定する。
地図距離定位の段階では、車両が地図を横切りながら追跡され、視界センサの出力と現在の地図の面積を連続的に調整する。
論文 参考訳(メタデータ) (2022-08-05T20:11:18Z) - TANDEM: Tracking and Dense Mapping in Real-time using Deep Multi-view
Stereo [55.30992853477754]
本稿では,リアルタイムな単分子追跡と高密度フレームワークであるTANDEMを紹介する。
ポーズ推定のために、TANDEMはアライメントのスライディングウィンドウに基づいて光度バンドル調整を行う。
TANDEMは最先端のリアルタイム3D再構成性能を示す。
論文 参考訳(メタデータ) (2021-11-14T19:01:02Z) - Semantic Image Alignment for Vehicle Localization [111.59616433224662]
単眼カメラからのセマンティックセグメンテーションを用いた高密度セマンティックマップにおける車両位置推定手法を提案する。
既存の視覚的ローカライゼーションアプローチとは対照的に、システムは追加のキーポイント機能、手作りのローカライゼーションランドマーク抽出器、高価なLiDARセンサーを必要としない。
論文 参考訳(メタデータ) (2021-10-08T14:40:15Z) - Learning to Localize Using a LiDAR Intensity Map [87.04427452634445]
自動運転車のリアルタイム・キャリブレーション非依存・効果的なローカライズシステムを提案する。
私たちの方法は、オンラインLiDARスイープと強度マップをジョイントディープ埋め込みスペースに埋め込む方法を学びます。
システム全体の動作は15hzで,さまざまなlidarセンサや環境においてセンチメートルレベルの精度を実現しています。
論文 参考訳(メタデータ) (2020-12-20T11:56:23Z) - Beyond Controlled Environments: 3D Camera Re-Localization in Changing
Indoor Scenes [74.9814252247282]
長期カメラ再配置は多くのコンピュータビジョンとロボット工学の応用において重要な課題である。
RIO10は、屋内シーンに焦点を当てた、新しい長期カメラ再ローカライゼーションベンチマークである。
論文 参考訳(メタデータ) (2020-08-05T09:02:12Z) - GPU-accelerated Hierarchical Panoramic Image Feature Retrieval for
Indoor Localization [1.6752182911522522]
本稿では,パノラマ画像特徴を用いた視覚的ランドマークのモデル化により,屋内の局所化問題をマルチメディア検索問題に定式化する。
実データを構築するキャンパスでの実験では、リアルタイムの応答とロバストなローカライゼーションが示されている。
論文 参考訳(メタデータ) (2020-06-16T01:42:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。