論文の概要: Visual Place Recognition: A Tutorial
- arxiv url: http://arxiv.org/abs/2303.03281v1
- Date: Mon, 6 Mar 2023 16:52:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 15:19:14.589717
- Title: Visual Place Recognition: A Tutorial
- Title(参考訳): 視覚的位置認識 : チュートリアル
- Authors: Stefan Schubert, Peer Neubert, Sourav Garg, Michael Milford, Tobias
Fischer
- Abstract要約: 本論文は視覚的位置認識に関する最初のチュートリアル論文である。
これは、VPR問題の定式化、汎用的なアルゴリズムパイプライン、VPRアプローチの評価方法などのトピックをカバーしている。
Pythonの実践的なコード例は、VPRの実装と評価について、将来的な実践者や研究者に示している。
- 参考スコア(独自算出の注目度): 40.576083932383895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Localization is an essential capability for mobile robots. A rapidly growing
field of research in this area is Visual Place Recognition (VPR), which is the
ability to recognize previously seen places in the world based solely on
images. This present work is the first tutorial paper on visual place
recognition. It unifies the terminology of VPR and complements prior research
in two important directions: 1) It provides a systematic introduction for
newcomers to the field, covering topics such as the formulation of the VPR
problem, a general-purpose algorithmic pipeline, an evaluation methodology for
VPR approaches, and the major challenges for VPR and how they may be addressed.
2) As a contribution for researchers acquainted with the VPR problem, it
examines the intricacies of different VPR problem types regarding input, data
processing, and output. The tutorial also discusses the subtleties behind the
evaluation of VPR algorithms, e.g., the evaluation of a VPR system that has to
find all matching database images per query, as opposed to just a single match.
Practical code examples in Python illustrate to prospective practitioners and
researchers how VPR is implemented and evaluated.
- Abstract(参考訳): ローカライゼーションは移動ロボットにとって必須の機能である。
この分野で急速に成長している研究分野として、視覚位置認識(英語版)(vpr)がある。
本研究は視覚的位置認識に関する最初のチュートリアル論文である。
VPRの用語を統一し、先行研究を2つの重要な方向に補完する。
1)VPR問題の定式化,汎用アルゴリズムパイプライン,VPRアプローチの評価方法論,VPRの課題と対処方法など,新参者の分野への体系的な紹介を提供する。
2) VPR問題に精通した研究者への貢献として, 入力, データ処理, 出力に関する様々なVPR問題型の複雑さについて検討した。
チュートリアルではまた、VPRアルゴリズムの評価の背景にある微妙さについても論じている。例えば、単一のマッチングではなく、クエリ毎に一致するデータベースイメージをすべて見つけなければならないVPRシステムの評価である。
Pythonの実践的なコード例は、VPRの実装方法と評価方法を示す。
関連論文リスト
- Collaborative Visual Place Recognition through Federated Learning [5.06570397863116]
視覚的位置認識(VPR)は、画像の位置を検索問題として扱うことで、画像の位置を推定することを目的としている。
VPRはジオタグ付き画像のデータベースを使用し、ディープニューラルネットワークを活用して、各画像からデクリプタと呼ばれるグローバル表現を抽出する。
本研究は,フェデレートラーニング(FL)のレンズを通してVPRの課題を再考し,この適応に関連するいくつかの重要な課題に対処する。
論文 参考訳(メタデータ) (2024-04-20T08:48:37Z) - Deep Homography Estimation for Visual Place Recognition [49.235432979736395]
本稿では,変換器を用いたディープホモグラフィー推定(DHE)ネットワークを提案する。
バックボーンネットワークによって抽出された濃密な特徴写像を入力とし、高速で学習可能な幾何的検証のためにホモグラフィーに適合する。
ベンチマークデータセットを用いた実験により,本手法はいくつかの最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-02-25T13:22:17Z) - A-MuSIC: An Adaptive Ensemble System For Visual Place Recognition In
Changing Environments [22.58641358408613]
視覚的位置認識(VPR)は、ロボットナビゲーションとローカライゼーションシステムにおいて不可欠な要素である。
すべての環境条件において、単一のVPR技術が優れているわけではない。
A-MuSIC(Adaptive Multi-Self Identification and Correction)と呼ばれる適応型VPRシステム
A-MuSICは、テストされたすべてのベンチマークデータセット間で最先端のVPRパフォーマンスにマッチまたは打ち勝つ。
論文 参考訳(メタデータ) (2023-03-24T19:25:22Z) - REVIVE: Regional Visual Representation Matters in Knowledge-Based Visual
Question Answering [75.53187719777812]
本稿では,知識に基づく視覚的質問応答(VQA)における視覚表現を再考する。
本稿では,対象領域の明示的な情報を活用するための知識に基づく新しいVQA手法REVIVEを提案する。
我々は,新しい最先端性能,すなわち58.0%の精度を実現し,従来の最先端手法を大きなマージンで上回った。
論文 参考訳(メタデータ) (2022-06-02T17:59:56Z) - Achieving Human Parity on Visual Question Answering [67.22500027651509]
The Visual Question Answering (VQA) task using both visual image and language analysis to answer a textual question to a image。
本稿では,人間がVQAで行ったのと同じような,あるいは少しでも良い結果が得られるAliceMind-MMUに関する最近の研究について述べる。
これは,(1)包括的視覚的・テキスト的特徴表現による事前学習,(2)参加する学習との効果的な相互モーダル相互作用,(3)複雑なVQAタスクのための専門的専門家モジュールを用いた新たな知識マイニングフレームワークを含む,VQAパイプラインを体系的に改善することで達成される。
論文 参考訳(メタデータ) (2021-11-17T04:25:11Z) - A Benchmark Comparison of Visual Place Recognition Techniques for
Resource-Constrained Embedded Platforms [17.48671856442762]
本稿では,パブリックデータセット上での多数の最先端VPR技術について,ハードウェアに焦点を絞ったベンチマーク評価を行う。
我々は、ODroid、UP、Raspberry Pi 3などの一般的なシングルボードコンピュータに加えて、参照用のコモディティデスクトップとラップトップも検討している。
VPR技術のパフォーマンス精度は、プロセッサアーキテクチャでどのように変化しますか?
この研究の広範な分析と成果は、VPRコミュニティのベンチマークとして機能するだけでなく、VPRアプリケーションの現実的な採用に有用な洞察を提供する。
論文 参考訳(メタデータ) (2021-09-22T19:45:57Z) - Deep SIMBAD: Active Landmark-based Self-localization Using Ranking
-based Scene Descriptor [5.482532589225552]
本稿では,アクティブオブザーバによるアクティブな自己ローカライゼーションタスクについて検討し,新しい強化学習(RL)に基づく次世代ベクター(NBV)プランナーを提案する。
パブリックNCLTデータセットを用いた実験により,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2021-09-06T23:51:27Z) - The Role of the Input in Natural Language Video Description [60.03448250024277]
自然言語ビデオ記述(NLVD)は最近、コンピュータビジョン、自然言語処理、マルチメディア、自律型ロボティクスのコミュニティに強い関心を集めている。
本研究は, 視覚入力の役割に関する広範な研究を行い, 総合的なNLP性能について評価した。
t-SNEをベースとした解析を行い,検討した変換が全体的視覚データ分布に与える影響を評価する。
論文 参考訳(メタデータ) (2021-02-09T19:00:35Z) - Reasoning over Vision and Language: Exploring the Benefits of
Supplemental Knowledge [59.87823082513752]
本稿では,汎用知識基盤(KB)から視覚言語変換器への知識の注入について検討する。
我々は複数のタスクやベンチマークに対する様々なkbの関連性を実証的に研究する。
この技術はモデルに依存しず、最小限の計算オーバーヘッドで任意の視覚言語変換器の適用可能性を拡張することができる。
論文 参考訳(メタデータ) (2021-01-15T08:37:55Z) - VPR-Bench: An Open-Source Visual Place Recognition Evaluation Framework
with Quantifiable Viewpoint and Appearance Change [25.853640977526705]
VPRの研究は、カメラハードウェアの改善とディープラーニングベースの技術の可能性により、過去10年間で急速に成長してきた。
この成長は、特に性能評価に関する分野における断片化と標準化の欠如につながった。
本稿では,VPR技術の性能評価を行うオープンソースフレームワーク「VPR-Bench」を通じて,これらのギャップに対処する。
論文 参考訳(メタデータ) (2020-05-17T00:27:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。