論文の概要: Semantic Signatures for Large-scale Visual Localization
- arxiv url: http://arxiv.org/abs/2005.03388v1
- Date: Thu, 7 May 2020 11:33:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 00:01:35.922877
- Title: Semantic Signatures for Large-scale Visual Localization
- Title(参考訳): 大規模視覚像定位のための意味署名
- Authors: Li Weng, Valerie Gouet-Brunet, Bahman Soheilian
- Abstract要約: この研究は、ハイレベルな意味情報を利用することにより、異なる経路を探索する。
ストリートビューのオブジェクト情報は、ローカライゼーションを促進することができる。
いくつかのメトリクスとプロトコルが署名の比較と検索のために提案されている。
- 参考スコア(独自算出の注目度): 2.9542356825059715
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual localization is a useful alternative to standard localization
techniques. It works by utilizing cameras. In a typical scenario, features are
extracted from captured images and compared with geo-referenced databases.
Location information is then inferred from the matching results. Conventional
schemes mainly use low-level visual features. These approaches offer good
accuracy but suffer from scalability issues. In order to assist localization in
large urban areas, this work explores a different path by utilizing high-level
semantic information. It is found that object information in a street view can
facilitate localization. A novel descriptor scheme called "semantic signature"
is proposed to summarize this information. A semantic signature consists of
type and angle information of visible objects at a spatial location. Several
metrics and protocols are proposed for signature comparison and retrieval. They
illustrate different trade-offs between accuracy and complexity. Extensive
simulation results confirm the potential of the proposed scheme in large-scale
applications. This paper is an extended version of a conference paper in
CBMI'18. A more efficient retrieval protocol is presented with additional
experiment results.
- Abstract(参考訳): 視覚的ローカライゼーションは、標準的なローカライゼーション手法の代替となる。
カメラを利用する。
典型的なシナリオでは、画像から特徴を抽出し、地理参照データベースと比較する。
そして、一致する結果から位置情報を推測する。
従来のスキームは主に低レベルの視覚特徴を使用する。
これらのアプローチは高い精度を提供するが、スケーラビリティの問題に悩まされる。
都市部における局所化を支援するため,高レベルな意味情報を利用して異なる経路を探索する。
ストリートビューのオブジェクト情報は、ローカライゼーションを容易にすることが判明した。
この情報を要約するために"semantic signature"と呼ばれる新しい記述子スキームが提案されている。
意味的シグネチャは、空間的位置における可視物体のタイプと角度情報からなる。
いくつかのメトリクスとプロトコルが署名の比較と検索のために提案されている。
正確さと複雑さの間には、異なるトレードオフがある。
大規模応用における提案手法の可能性を大規模シミュレーションにより検証した。
本論文はCBMI'18における会議用紙の拡張版である。
より効率的な検索プロトコルにさらなる実験結果を示す。
関連論文リスト
- FUSELOC: Fusing Global and Local Descriptors to Disambiguate 2D-3D Matching in Visual Localization [57.59857784298536]
直接2D-3Dマッチングアルゴリズムでは、メモリが大幅に削減されるが、より大きくあいまいな検索空間のために精度が低下する。
本研究では,2次元3次元探索フレームワーク内の重み付き平均演算子を用いて局所的およびグローバルな記述子を融合させることにより,この曖昧さに対処する。
ローカルのみのシステムの精度を常に改善し、メモリ要求を半減させながら階層的な手法に近い性能を達成する。
論文 参考訳(メタデータ) (2024-08-21T23:42:16Z) - MSSPlace: Multi-Sensor Place Recognition with Visual and Text Semantics [41.94295877935867]
マルチカメラのセットアップを活用し,マルチモーダル位置認識のための多様なデータソースを統合することの影響について検討する。
提案手法は,複数のカメラ,LiDAR点雲,セマンティックセグメンテーションマスク,テキストアノテーションなどの画像を用いて,総合的な位置記述子を生成する。
論文 参考訳(メタデータ) (2024-07-22T14:24:56Z) - AddressCLIP: Empowering Vision-Language Models for City-wide Image Address Localization [57.34659640776723]
そこで我々は,より意味論的に問題を解決するために,AddressCLIPというエンドツーエンドのフレームワークを提案する。
われわれはピッツバーグとサンフランシスコに3つのデータセットを構築した。
論文 参考訳(メタデータ) (2024-07-11T03:18:53Z) - Deep Homography Estimation for Visual Place Recognition [49.235432979736395]
本稿では,変換器を用いたディープホモグラフィー推定(DHE)ネットワークを提案する。
バックボーンネットワークによって抽出された濃密な特徴写像を入力とし、高速で学習可能な幾何的検証のためにホモグラフィーに適合する。
ベンチマークデータセットを用いた実験により,本手法はいくつかの最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-02-25T13:22:17Z) - Are Local Features All You Need for Cross-Domain Visual Place
Recognition? [13.519413608607781]
視覚的位置認識は、視覚的手がかりのみに基づいて画像の座標を予測することを目的としている。
近年の進歩にもかかわらず、クエリがかなり異なる分布から来るのと同じ場所を認識することは、依然として最先端の検索手法にとって大きなハードルである。
本研究では,空間的検証に基づく手法がこれらの課題に対処できるかどうかを考察する。
論文 参考訳(メタデータ) (2023-04-12T14:46:57Z) - Location retrieval using visible landmarks based qualitative place
signatures [0.7119463843130092]
定位位置シグネチャ(QPS)を用いた位置・場所を記述した定位位置探索法を提案する。
空間を個々のシグネチャを付加した場所セルに分割した後,その質的観察に基づいて,視聴者の可能な位置を効率的に同定する粗い位置探索法を提案する。
論文 参考訳(メタデータ) (2022-07-26T13:57:49Z) - Learning Implicit Feature Alignment Function for Semantic Segmentation [51.36809814890326]
Implicit Feature Alignment Function (IFA)は、暗黙の神経表現の急速に拡大するトピックにインスパイアされている。
IFAは機能マップを異なるレベルで暗黙的に整列し、任意の解像度でセグメンテーションマップを生成することができることを示す。
提案手法は,様々なアーキテクチャの改善と組み合わせて,一般的なベンチマークにおける最先端の精度のトレードオフを実現する。
論文 参考訳(メタデータ) (2022-06-17T09:40:14Z) - Sparse Spatial Transformers for Few-Shot Learning [6.271261279657655]
限られたデータから学ぶことは、データの不足によってトレーニングされたモデルの一般化が不十分になるため、難しい。
スパース空間トランスと呼ばれる新しいトランスを用いたニューラルネットワークアーキテクチャを提案する。
本手法はタスク関連機能を見つけ,タスク関連機能を抑制する。
論文 参考訳(メタデータ) (2021-09-27T10:36:32Z) - SSC: Semantic Scan Context for Large-Scale Place Recognition [13.228580954956342]
我々は、記述子の表現能力を向上させるために、高レベルの機能、すなわち意味論の利用について検討する。
本稿では,シーンをより効果的に表現するための意味情報を探る,新しいグローバルな記述子Semantic Scan Contextを提案する。
我々の手法は最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2021-07-01T11:51:19Z) - Geography-Aware Self-Supervised Learning [79.4009241781968]
異なる特徴により、標準ベンチマークにおけるコントラスト学習と教師あり学習の間には、非自明なギャップが持続していることが示される。
本稿では,リモートセンシングデータの空間的整合性を利用した新しいトレーニング手法を提案する。
提案手法は,画像分類,オブジェクト検出,セマンティックセグメンテーションにおけるコントラスト学習と教師あり学習のギャップを埋めるものである。
論文 参考訳(メタデータ) (2020-11-19T17:29:13Z) - Geometrically Mappable Image Features [85.81073893916414]
地図内のエージェントの視覚に基づくローカライゼーションは、ロボット工学とコンピュータビジョンにおいて重要な問題である。
本稿では,画像検索を対象とした画像特徴学習手法を提案する。
論文 参考訳(メタデータ) (2020-03-21T15:36:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。