論文の概要: Location retrieval using visible landmarks based qualitative place
signatures
- arxiv url: http://arxiv.org/abs/2208.00783v1
- Date: Tue, 26 Jul 2022 13:57:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-07 14:16:56.570063
- Title: Location retrieval using visible landmarks based qualitative place
signatures
- Title(参考訳): 目に見えるランドマークに基づく定性的位置シグネチャを用いた位置検索
- Authors: Lijun Wei, Valerie Gouet-Brunet, Anthony Cohn
- Abstract要約: 定位位置シグネチャ(QPS)を用いた位置・場所を記述した定位位置探索法を提案する。
空間を個々のシグネチャを付加した場所セルに分割した後,その質的観察に基づいて,視聴者の可能な位置を効率的に同定する粗い位置探索法を提案する。
- 参考スコア(独自算出の注目度): 0.7119463843130092
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Location retrieval based on visual information is to retrieve the location of
an agent (e.g. human, robot) or the area they see by comparing the observations
with a certain form of representation of the environment. Existing methods
generally require precise measurement and storage of the observed environment
features, which may not always be robust due to the change of season,
viewpoint, occlusion, etc. They are also challenging to scale up and may not be
applicable for humans due to the lack of measuring/imaging devices. Considering
that humans often use less precise but easily produced qualitative spatial
language and high-level semantic landmarks when describing an environment, a
qualitative location retrieval method is proposed in this work by describing
locations/places using qualitative place signatures (QPS), defined as the
perceived spatial relations between ordered pairs of co-visible landmarks from
viewers' perspective. After dividing the space into place cells each with
individual signatures attached, a coarse-to-fine location retrieval method is
proposed to efficiently identify the possible location(s) of viewers based on
their qualitative observations. The usability and effectiveness of the proposed
method were evaluated using openly available landmark datasets, together with
simulated observations by considering the possible perception error.
- Abstract(参考訳): 視覚情報に基づく位置情報検索は、エージェント(例えば、人間、ロボット)の位置や、観察結果を環境の特定の形態の表現と比較することによって見る領域を検索することである。
既存の方法は一般的に観測された環境特性の正確な測定と保存を必要としており、季節、視点、閉塞などによって常に堅牢であるとは限らない。
また、スケールアップも困難であり、計測・撮像装置の欠如のため、人間には適用できない可能性がある。
環境を記述する際に、人間があまり正確ではないが容易に生成される質的空間言語と高水準な意味的ランドマークを用いる場合が多いことを考慮し、質的位置シグネチャ(qps)を用いて位置/場所を記述し、ビューアの視点からの共観的ランドマークの順序対間の空間的関係として定義する質的位置検索手法を提案する。
空間を個々のシグネチャを付加した場所セルに分割した後,その質的観察に基づいて,視聴者の可能な位置を効率的に同定する粗い位置探索法を提案する。
提案手法のユーザビリティと有効性は,オープンに利用可能なランドマークデータセットを用いて評価し,認識誤差を考慮したシミュレーション観測を行った。
関連論文リスト
- Learning Where to Look: Self-supervised Viewpoint Selection for Active Localization using Geometrical Information [68.10033984296247]
本稿では, 位置決めの精度を高めるために, 視点選択の重要性を強調し, アクティブな位置決め領域について検討する。
私たちのコントリビューションは、リアルタイム操作用に設計されたシンプルなアーキテクチャ、自己教師付きデータトレーニング方法、および実世界のロボティクスアプリケーションに適した計画フレームワークにマップを一貫して統合する能力による、データ駆動型アプローチの使用に関するものです。
論文 参考訳(メタデータ) (2024-07-22T12:32:09Z) - Mapping High-level Semantic Regions in Indoor Environments without
Object Recognition [50.624970503498226]
本研究では,屋内環境における埋め込みナビゲーションによる意味領域マッピング手法を提案する。
地域識別を実現するために,視覚言語モデルを用いて地図作成のためのシーン情報を提供する。
グローバルなフレームにエゴセントリックなシーン理解を投影することにより、提案手法は各場所の可能な領域ラベル上の分布としてのセマンティックマップを生成する。
論文 参考訳(メタデータ) (2024-03-11T18:09:50Z) - LoCUS: Learning Multiscale 3D-consistent Features from Posed Images [18.648772607057175]
我々は、監督なしに多目的な神経表現を訓練する。
検索セットを慎重に構築することで、検索と再利用のバランスをとることができる。
スパース,マルチスケール,セマンティック空間マップの作成結果を示す。
論文 参考訳(メタデータ) (2023-10-02T11:11:23Z) - View Consistent Purification for Accurate Cross-View Localization [59.48131378244399]
本稿では,屋外ロボットのための微細な自己局在化手法を提案する。
提案手法は,既存のクロスビューローカライゼーション手法の限界に対処する。
これは、動的環境における知覚を増強する初めての疎視のみの手法である。
論文 参考訳(メタデータ) (2023-08-16T02:51:52Z) - Robust Self-Tuning Data Association for Geo-Referencing Using Lane Markings [44.4879068879732]
本稿では,データアソシエーションにおけるあいまいさを解消するための完全なパイプラインを提案する。
その中核は、測定のエントロピーに応じて探索領域に適応する堅牢な自己調整データアソシエーションである。
ドイツ・カールスルーエ市周辺の都市・農村のシナリオを実データとして評価した。
論文 参考訳(メタデータ) (2022-07-28T12:29:39Z) - Real-time Outdoor Localization Using Radio Maps: A Deep Learning
Approach [59.17191114000146]
LocUNet: ローカライゼーションタスクのための畳み込み、エンドツーエンドのトレーニングニューラルネットワーク(NN)。
我々は,LocUNetがユーザを最先端の精度でローカライズし,無線マップ推定における不正確性が高いことを示す。
論文 参考訳(メタデータ) (2021-06-23T17:27:04Z) - Ordinal UNLOC: Target Localization with Noisy and Incomplete Distance
Measures [1.6836876499886007]
ターゲットローカライズにおける大きな課題は、信頼性の高い距離測定の欠如から生じる。
信頼性の高い距離測定を必要とせず,目標の位置を推定する新しい計算フレームワークを開発した。
論文 参考訳(メタデータ) (2021-05-06T13:54:31Z) - Content-Based Detection of Temporal Metadata Manipulation [91.34308819261905]
画像の撮像時間とその内容と地理的位置とが一致しているかどうかを検証するためのエンドツーエンドのアプローチを提案する。
中心となる考え方は、画像の内容、キャプチャ時間、地理的位置が一致する確率を予測するための教師付き一貫性検証の利用である。
我々のアプローチは、大規模なベンチマークデータセットの以前の作業により改善され、分類精度が59.03%から81.07%に向上した。
論文 参考訳(メタデータ) (2021-03-08T13:16:19Z) - SIRI: Spatial Relation Induced Network For Spatial Description
Resolution [64.38872296406211]
言語誘導型ローカライゼーションのための新しい関係誘導型ネットワーク(SIRI)を提案する。
提案手法は,80ピクセルの半径で測定した精度で,最先端手法よりも約24%優れていた。
提案手法は,Touchdownと同じ設定で収集した拡張データセットをうまく一般化する。
論文 参考訳(メタデータ) (2020-10-27T14:04:05Z) - Semantic Signatures for Large-scale Visual Localization [2.9542356825059715]
この研究は、ハイレベルな意味情報を利用することにより、異なる経路を探索する。
ストリートビューのオブジェクト情報は、ローカライゼーションを促進することができる。
いくつかのメトリクスとプロトコルが署名の比較と検索のために提案されている。
論文 参考訳(メタデータ) (2020-05-07T11:33:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。