論文の概要: GOTPR: General Outdoor Text-based Place Recognition Using Scene Graph Retrieval with OpenStreetMap
- arxiv url: http://arxiv.org/abs/2501.08575v2
- Date: Thu, 22 May 2025 11:48:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:47.71136
- Title: GOTPR: General Outdoor Text-based Place Recognition Using Scene Graph Retrieval with OpenStreetMap
- Title(参考訳): GOTPR:OpenStreetMapを用いたScene Graph Retrievalを用いた一般的な屋外テキストベースの位置認識
- Authors: Donghwi Jung, Keonwoo Kim, Seong-Woo Kim,
- Abstract要約: GOTPRはGPS信号が利用できない屋外環境向けに設計されたロバストな位置認識手法である。
大規模で保存が難しいポイントクラウドマップを使用する既存のアプローチとは異なり、GOTPRはテキスト記述や場所認識用のマップから生成されたシーングラフを活用する。
都市規模のテストでは、数秒で処理を完了し、現実世界のロボティクスアプリケーションに非常に実用的になった。
- 参考スコア(独自算出の注目度): 4.51019574688293
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We propose GOTPR, a robust place recognition method designed for outdoor environments where GPS signals are unavailable. Unlike existing approaches that use point cloud maps, which are large and difficult to store, GOTPR leverages scene graphs generated from text descriptions and maps for place recognition. This method improves scalability by replacing point clouds with compact data structures, allowing robots to efficiently store and utilize extensive map data. In addition, GOTPR eliminates the need for custom map creation by using publicly available OpenStreetMap data, which provides global spatial information. We evaluated its performance using the KITTI360Pose dataset with corresponding OpenStreetMap data, comparing it to existing point cloud-based place recognition methods. The results show that GOTPR achieves comparable accuracy while significantly reducing storage requirements. In city-scale tests, it completed processing within a few seconds, making it highly practical for real-world robotics applications. More information can be found at https://donghwijung.github.io/GOTPR_page/.
- Abstract(参考訳): GOTPRはGPS信号が利用できない屋外環境向けに設計されたロバストな位置認識手法である。
大規模で保存が難しいポイントクラウドマップを使用する既存のアプローチとは異なり、GOTPRはテキスト記述や場所認識用のマップから生成されたシーングラフを活用する。
この方法は点雲をコンパクトなデータ構造に置き換えることでスケーラビリティを向上させる。
さらに、GOTPRは、グローバル空間情報を提供するOpenStreetMapデータを使用することで、カスタムマップ作成の必要性を排除している。
我々は、KITTI360PoseデータセットとOpenStreetMapデータを用いて、その性能を評価し、既存のクラウドベースの位置認識手法と比較した。
その結果、GOTPRはストレージ要件を大幅に削減しつつ、同等の精度を実現していることがわかった。
都市規模のテストでは、数秒で処理を完了し、現実世界のロボティクスアプリケーションに非常に実用的になった。
詳細はhttps://donghwijung.github.io/GOTPR_page/で確認できる。
関連論文リスト
- FlexCloud: Direct, Modular Georeferencing and Drift-Correction of Point Cloud Maps [0.7421845364041001]
SLAMから生成された点クラウドマップの自動ジオレファレンスとしてFlexCloudを提案する。
我々のアプローチは、生成されたローカルポイントクラウドマップのみを利用して、異なるSLAMメソッドでモジュール的に動作するように設計されています。
我々のアプローチは、モバイルマッピングシステムによって収集されたデータから、一貫したグローバルな参照ポイントクラウドマップの作成を可能にする。
論文 参考訳(メタデータ) (2025-02-01T10:56:05Z) - R-SCoRe: Revisiting Scene Coordinate Regression for Robust Large-Scale Visual Localization [66.87005863868181]
可視性グラフに基づくグローバルエンコーディング学習とデータ拡張戦略を導入する。
ネットワークアーキテクチャとローカル特徴抽出モジュールを再考する。
本手法は,ネットワークアンサンブルや3D監視に頼ることなく,大規模データセットに挑戦する最先端の手法を実現する。
論文 参考訳(メタデータ) (2025-01-02T18:59:08Z) - PRISM-TopoMap: Online Topological Mapping with Place Recognition and Scan Matching [42.74395278382559]
本稿では,局所的な位置のグラフを保持するトポロジカルマッピング手法であるPRISM-TopoMapを紹介する。
提案手法は,ローカライゼーションとループ閉鎖のためのスキャンマッチングパイプラインと組み合わせた学習可能なマルチモーダル位置認識を含む。
提案手法の広範な実験的評価を,写真実写環境および実ロボット上で行った。
論文 参考訳(メタデータ) (2024-04-02T06:25:16Z) - DUFOMap: Efficient Dynamic Awareness Mapping [3.3580006471376205]
現実世界のダイナミックな性質は、ロボット工学における大きな課題の1つだ。
現在のソリューションは後処理によく適用され、パラメータチューニングによって特定のデータセットの設定を調整することができる。
本研究では,効率的なオンライン処理を目的とした動的認識マッピングフレームワークであるDUFOMapを提案する。
論文 参考訳(メタデータ) (2024-03-03T09:07:16Z) - Loopy-SLAM: Dense Neural SLAM with Loop Closures [53.11936461015725]
ポーズをグローバルに最適化するLoopy-SLAMと高密度3Dモデルを導入する。
我々は,データ駆動のポイントベースサブマップ生成手法を用いてフレーム・ツー・モデル追跡を行い,グローバルな位置認識を行うことで,オンラインのループクロージャをトリガーする。
合成Replicaおよび実世界のTUM-RGBDおよびScanNetデータセットの評価は、既存の高密度ニューラルネットワークRGBD SLAM法と比較して、追跡、マッピング、レンダリングの精度の競争力または優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-14T18:18:32Z) - Neural Implicit Dense Semantic SLAM [83.04331351572277]
本稿では,屋内シーンのメモリ効率,高密度な3次元形状,セマンティックセマンティックセグメンテーションをオンラインで学習する新しいRGBD vSLAMアルゴリズムを提案する。
私たちのパイプラインは、従来の3Dビジョンベースのトラッキングとループクローズとニューラルフィールドベースのマッピングを組み合わせたものです。
提案アルゴリズムはシーン認識を大幅に向上させ,様々なロボット制御問題を支援する。
論文 参考訳(メタデータ) (2023-04-27T23:03:52Z) - A Map-matching Algorithm with Extraction of Multi-group Information for
Low-frequency Data [9.476212160807549]
本稿では,「ビッグデータ」をフル活用する新しい地図マッチング手法を考案する。
現在のマッチングプローブから空間的および時間的距離に応じて、全てのデータを4つのグループに分類する。
修正されたトップKショートパス法を用いて、楕円領域内の候補パスを探索し、融合スコアを用いて経路を推測する。
論文 参考訳(メタデータ) (2022-09-18T08:09:17Z) - Robust Self-Tuning Data Association for Geo-Referencing Using Lane Markings [44.4879068879732]
本稿では,データアソシエーションにおけるあいまいさを解消するための完全なパイプラインを提案する。
その中核は、測定のエントロピーに応じて探索領域に適応する堅牢な自己調整データアソシエーションである。
ドイツ・カールスルーエ市周辺の都市・農村のシナリオを実データとして評価した。
論文 参考訳(メタデータ) (2022-07-28T12:29:39Z) - Long-term Visual Map Sparsification with Heterogeneous GNN [47.12309045366042]
本稿では,環境変化を克服し,将来のローカライゼーションに有用な点を選択することで,地図サイズを同時に削減することを目的とする。
グラフニューラルネットワーク(GNN)の最近の進歩に触発されて,SfMマップを異種グラフとしてモデル化し,GNNを用いて3次元点重要度を推定する最初の研究を提案する。
2つの新しい監督手法が提案されている: 1) トレーニングクエリに基づく将来のローカライゼーションに有用なポイントを選択するためのデータ適合用語、2) スパースポイントをフルマップで選択するためのK-Cover用語。
論文 参考訳(メタデータ) (2022-03-29T01:46:12Z) - GANmapper: geographical content filling [0.0]
本稿では,GAN(Generative Adversarial Network)を用いた空間データ生成手法を提案する。
当社のコントリビューションでは、粗大で広く利用可能な地理空間データを使用して、構築された環境のより細かいスケールで、あまり利用できない機能のマップを作成しています。
我々は、土地利用データと道路ネットワークを入力として、建物のフットプリントを生成し、世界中の9都市で実験を行う。
論文 参考訳(メタデータ) (2021-08-07T05:50:54Z) - Towards Semantic Segmentation of Urban-Scale 3D Point Clouds: A Dataset,
Benchmarks and Challenges [52.624157840253204]
我々は、30億点近い注釈付きポイントを持つ都市規模の測光点クラウドデータセットを提示する。
私たちのデータセットは、イギリスの3つの都市からなり、都市の景観の約7.6km2をカバーしています。
我々は,データセット上での最先端アルゴリズムの性能を評価し,その結果を包括的に分析する。
論文 参考訳(メタデータ) (2020-09-07T14:47:07Z) - Rethinking Localization Map: Towards Accurate Object Perception with
Self-Enhancement Maps [78.2581910688094]
本研究は, カテゴリーラベルのみを監督として, 正確な対象位置分布マップと対象境界を抽出する, 新たな自己強調手法を提案する。
特に、提案されたセルフエンハンスメントマップは、ILSVRC上で54.88%の最先端のローカライゼーション精度を達成する。
論文 参考訳(メタデータ) (2020-06-09T12:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。