論文の概要: RING++: Roto-translation Invariant Gram for Global Localization on a
Sparse Scan Map
- arxiv url: http://arxiv.org/abs/2210.05984v1
- Date: Wed, 12 Oct 2022 07:49:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 15:40:22.267990
- Title: RING++: Roto-translation Invariant Gram for Global Localization on a
Sparse Scan Map
- Title(参考訳): ring++: スパーススキャンマップ上のグローバルローカライズのためのroto-translation invariant gram
- Authors: Xuecheng Xu, Sha Lu, Jun Wu, Haojian Lu, Qiuguo Zhu, Yiyi Liao, Rong
Xiong and Yue Wang
- Abstract要約: 本稿では、位置認識のためのロト変換不変表現と、回転と翻訳の両方のグローバル収束を持つRing++を提案する。
理論的保証により、RING++はスパーススキャン付き軽量マップを使用して、大きな視点差に対処することができる。
これはスパーススキャンマップにおけるグローバルローカライゼーションのすべてのサブタスクに対処する初めての学習不要フレームワークである。
- 参考スコア(独自算出の注目度): 20.276334172402763
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Global localization plays a critical role in many robot applications.
LiDAR-based global localization draws the community's focus with its robustness
against illumination and seasonal changes. To further improve the localization
under large viewpoint differences, we propose RING++ which has roto-translation
invariant representation for place recognition, and global convergence for both
rotation and translation estimation. With the theoretical guarantee, RING++ is
able to address the large viewpoint difference using a lightweight map with
sparse scans. In addition, we derive sufficient conditions of feature
extractors for the representation preserving the roto-translation invariance,
making RING++ a framework applicable to generic multi-channel features. To the
best of our knowledge, this is the first learning-free framework to address all
subtasks of global localization in the sparse scan map. Validations on
real-world datasets show that our approach demonstrates better performance than
state-of-the-art learning-free methods, and competitive performance with
learning-based methods. Finally, we integrate RING++ into a multi-robot/session
SLAM system, performing its effectiveness in collaborative applications.
- Abstract(参考訳): グローバルなローカライゼーションは多くのロボットアプリケーションにおいて重要な役割を果たす。
lidarベースのグローバルローカライゼーションは、照明や季節変化に対する堅牢性にコミュニティの焦点をあてている。
大きな視点差の下でのローカライゼーションを改善するため,位置認識のためのロト変換不変表現と,回転推定と翻訳推定の両方のためのグローバル収束を備えたRing++を提案する。
理論的保証により、RING++はスパーススキャン付き軽量マップを使用して、大きな視点差に対処することができる。
さらに,ロト翻訳不変性を保った表現のための特徴抽出器の十分な条件を導出し,Ring++を汎用的なマルチチャネル機能に適用可能なフレームワークとする。
我々の知る限りでは、これはスパーススキャンマップにおけるグローバルローカライゼーションのすべてのサブタスクに対処する初めての学習不要フレームワークである。
実世界のデータセット上での検証は、最先端の学習フリーな方法よりも優れたパフォーマンスを示し、学習ベースの方法と競合するパフォーマンスを示す。
最後に、RING++をマルチロボット/セッションSLAMシステムに統合し、協調アプリケーションにおいてその効率性を実現する。
関連論文リスト
- RING#: PR-by-PE Global Localization with Roto-translation Equivariant Gram Learning [20.688641105430467]
GPS信号が信頼できない場合、グローバルなローカライゼーションは自動運転やロボティクスの応用において不可欠である。
ほとんどのアプローチは、逐次位置認識(PR)とポーズ推定(PE)により、グローバルなローカライゼーションを実現する。
ポーズ推定から直接導出することで、別の場所認識の必要性を回避できる新しいパラダイムであるPR-by-PEローカライゼーションを導入する。
本稿では,鳥眼視(BEV)空間で動作する終端PR-by-PEローカライゼーションネットワークであるRING#を提案する。
論文 参考訳(メタデータ) (2024-08-30T18:42:53Z) - Text-Video Retrieval with Global-Local Semantic Consistent Learning [122.15339128463715]
我々は,シンプルで効果的なグローバル局所意味的一貫性学習(GLSCL)を提案する。
GLSCLは、テキストビデオ検索のためのモダリティをまたいだ潜在共有セマンティクスを活用する。
本手法はSOTAと同等の性能を実現し,計算コストの約220倍の高速化を実現している。
論文 参考訳(メタデータ) (2024-05-21T11:59:36Z) - Unifying Local and Global Multimodal Features for Place Recognition in Aliased and Low-Texture Environments [19.859565090638167]
本稿では,視覚とLiDARの機能間のクロスアテンションブロックによってマルチモーダル性を活用するUMFという新しいモデルを提案する。
実験では、特に惑星系で捕獲された配列について、UMFが以前のベースラインよりもかなり優れていたことが示されている。
我々の研究は、すべての状況においてSLAMの信頼性を高めることを目的としており、広く使用されているRobotCarデータセットのパフォーマンスについても検討している。
論文 参考訳(メタデータ) (2024-03-20T08:35:57Z) - Adaptive Global-Local Representation Learning and Selection for
Cross-Domain Facial Expression Recognition [54.334773598942775]
ドメインシフトは、クロスドメイン顔表情認識(CD-FER)において重要な課題となる
適応的グローバルローカル表現学習・選択フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-20T02:21:41Z) - GL-CLeF: A Global-Local Contrastive Learning Framework for Cross-lingual
Spoken Language Understanding [74.39024160277809]
この問題に対処するために,グローバルローカルコントラスト学習フレームワーク(GL-CLeF)を提案する。
具体的には、比較学習を採用し、二言語辞書を活用して、同じ発話の多言語ビューを構築する。
GL-CLeFは最高のパフォーマンスを達成し、言語間の類似した文の表現をうまくプルする。
論文 参考訳(メタデータ) (2022-04-18T13:56:58Z) - Think Global, Act Local: Dual-scale Graph Transformer for
Vision-and-Language Navigation [87.03299519917019]
本稿では,2次元グラフ変換器 (DUET) を提案する。
我々は,グローバルな行動空間における効率的な探索を可能にするために,トポロジカルマップをオンザフライで構築する。
提案手法であるDUETは、目標指向の視覚・言語ナビゲーションベンチマークにおいて最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2022-02-23T19:06:53Z) - An Entropy-guided Reinforced Partial Convolutional Network for Zero-Shot
Learning [77.72330187258498]
エントロピー誘導強化部分畳み込みネットワーク(ERPCNet)を提案する。
ERPCNetは、人間のアノテーションのない意味的関連性と視覚的相関に基づいて、局所性を抽出し、集約する。
グローバルな協力的局所性を動的に発見するだけでなく、ポリシー勾配最適化のためにより高速に収束する。
論文 参考訳(メタデータ) (2021-11-03T11:13:13Z) - Global Context Aware RCNN for Object Detection [1.1939762265857436]
我々はGCA (Global Context Aware) RCNNと呼ばれる新しいエンドツーエンドのトレーニング可能なフレームワークを提案する。
GCAフレームワークの中核となるコンポーネントは、グローバルな特徴ピラミッドとアテンション戦略の両方を特徴抽出と特徴改善に使用する、コンテキスト認識メカニズムである。
最後に,モデルの複雑さと計算負担をわずかに増加させる軽量バージョンを提案する。
論文 参考訳(メタデータ) (2020-12-04T14:56:46Z) - Gait Recognition via Effective Global-Local Feature Representation and
Local Temporal Aggregation [28.721376937882958]
歩行認識は最も重要な生体計測技術の一つであり、多くの分野で応用されている。
近年の歩行認識フレームワークは、人間のグローバルな外観または地域から抽出された記述子によって各歩行フレームを表現している。
歩行認識のための識別的特徴表現を実現するための新しい特徴抽出・融合フレームワークを提案する。
論文 参考訳(メタデータ) (2020-11-03T04:07:13Z) - Semantic Histogram Based Graph Matching for Real-Time Multi-Robot Global
Localization in Large Scale Environment [18.128244946109795]
本稿では,視点変化に頑健な意味ヒストグラムに基づくグラフマッチング手法を提案し,リアルタイムなグローバルなローカライゼーションを実現する。
我々のアプローチはランダムウォークベースのセマンティック記述子よりも約30倍高速です。
これは、グローバルなローカライゼーションにおいて95%の精度を達成する一方、最先端手法の精度は85%である。
論文 参考訳(メタデータ) (2020-10-19T08:18:42Z) - Inter-Image Communication for Weakly Supervised Localization [77.2171924626778]
弱教師付きローカライゼーションは、画像レベルの監督のみを使用して対象対象領域を見つけることを目的としている。
我々は,より正確な物体位置を学習するために,異なる物体間の画素レベルの類似性を活用することを提案する。
ILSVRC検証セット上でトップ1のローカライズ誤差率45.17%を達成する。
論文 参考訳(メタデータ) (2020-08-12T04:14:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。