論文の概要: Fast and Incremental Loop Closure Detection with Deep Features and
Proximity Graphs
- arxiv url: http://arxiv.org/abs/2010.11703v2
- Date: Sun, 2 Jan 2022 13:49:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 07:05:14.731227
- Title: Fast and Incremental Loop Closure Detection with Deep Features and
Proximity Graphs
- Title(参考訳): 深部特徴と近接グラフを用いた高速・インクリメンタルループクロージャ検出
- Authors: Shan An, Haogang Zhu, Dong Wei, Konstantinos A. Tsintotas, Antonios
Gasteratos
- Abstract要約: 本稿では、FILD++という名前の外観に基づくループクロージャ検出パイプラインを提案する。
システムは連続した画像によって供給され、単一の畳み込みニューラルネットワークを2回通すことで、大域的および局所的な深い特徴を抽出する。
画像と画像のペアリングは、局所的な特徴を利用して空間情報を評価する。
- 参考スコア(独自算出の注目度): 13.328790865796224
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, the robotics community has extensively examined methods
concerning the place recognition task within the scope of simultaneous
localization and mapping applications.This article proposes an appearance-based
loop closure detection pipeline named ``FILD++" (Fast and Incremental Loop
closure Detection).First, the system is fed by consecutive images and, via
passing them twice through a single convolutional neural network, global and
local deep features are extracted.Subsequently, a hierarchical navigable
small-world graph incrementally constructs a visual database representing the
robot's traversed path based on the computed global features.Finally, a query
image, grabbed each time step, is set to retrieve similar locations on the
traversed route.An image-to-image pairing follows, which exploits local
features to evaluate the spatial information. Thus, in the proposed article, we
propose a single network for global and local feature extraction in contrast to
our previous work (FILD), while an exhaustive search for the verification
process is adopted over the generated deep local features avoiding the
utilization of hash codes. Exhaustive experiments on eleven publicly available
datasets exhibit the system's high performance (achieving the highest recall
score on eight of them) and low execution times (22.05 ms on average in New
College, which is the largest one containing 52480 images) compared to other
state-of-the-art approaches.
- Abstract(参考訳): 近年,ロボットコミュニティは,同時局所化およびマッピングアプリケーションの範囲内における位置認識タスクに関する手法を幅広く検討している。この記事では,「FILD++(Fast and Incremental Loop closure Detection)」という外観に基づくループ閉鎖検出パイプラインを提案する。
First, the system is fed by consecutive images and, via passing them twice through a single convolutional neural network, global and local deep features are extracted.Subsequently, a hierarchical navigable small-world graph incrementally constructs a visual database representing the robot's traversed path based on the computed global features.Finally, a query image, grabbed each time step, is set to retrieve similar locations on the traversed route.An image-to-image pairing follows, which exploits local features to evaluate the spatial information.
そこで,本論文では,従来の研究(FILD)とは対照的に,グローバルかつ局所的な特徴抽出のための単一ネットワークを提案するとともに,ハッシュコードの利用を避けるため,生成した深部特徴に対して検証プロセスの徹底的な探索を行う。
11の公開データセットの発掘実験では、他の最先端のアプローチと比較して、システムの高性能(うち8つが最も高いリコールスコアを達成している)と低実行時間(ニューカレッジでは平均22.05ms、これは52480の画像を含む最大である)が示されている。
関連論文リスト
- Deep Homography Estimation for Visual Place Recognition [49.235432979736395]
本稿では,変換器を用いたディープホモグラフィー推定(DHE)ネットワークを提案する。
バックボーンネットワークによって抽出された濃密な特徴写像を入力とし、高速で学習可能な幾何的検証のためにホモグラフィーに適合する。
ベンチマークデータセットを用いた実験により,本手法はいくつかの最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-02-25T13:22:17Z) - AANet: Aggregation and Alignment Network with Semi-hard Positive Sample
Mining for Hierarchical Place Recognition [48.043749855085025]
視覚的位置認識(VPR)はロボット工学におけるホットスポットの一つで、視覚情報を用いてロボットの位置を特定する。
本稿では,アグリゲーションモジュールを介して候補を検索するためのグローバルな特徴を抽出できる統一ネットワークを提案する。
また、より堅牢なVPRネットワークをトレーニングするために、適切なハード正のイメージを選択するためのセミハード正のサンプルマイニング(ShPSM)戦略を提案する。
論文 参考訳(メタデータ) (2023-10-08T14:46:11Z) - Yes, we CANN: Constrained Approximate Nearest Neighbors for local
feature-based visual localization [2.915868985330569]
Constrained Approximate Nearest Neighbors (CANN) は、局所的特徴のみを用いて、幾何学と外観空間の両方にわたって k-アネレスト近傍の合同解である。
提案手法は,現在最先端のグローバルな特徴量検索と,局所的な特徴量集計手法を用いたアプローチの両方に優れる。
論文 参考訳(メタデータ) (2023-06-15T10:12:10Z) - Delving into Sequential Patches for Deepfake Detection [64.19468088546743]
近年の顔偽造技術は、ほとんど追跡不可能なディープフェイクビデオを生み出しており、悪意のある意図で活用することができる。
従来の研究では、ディープフェイク法にまたがる一般化を追求する上で、局所的な低レベルな手がかりと時間的情報の重要性が指摘されてきた。
本稿では,局所的・時間的変換をベースとしたDeepfake Detectionフレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-06T16:46:30Z) - Reuse your features: unifying retrieval and feature-metric alignment [3.845387441054033]
DRANは視覚的ローカライゼーションの3段階の機能を生成できる最初のネットワークである。
公開ベンチマークの挑戦的な条件下では、堅牢性と正確性の観点から競争性能を達成する。
論文 参考訳(メタデータ) (2022-04-13T10:42:00Z) - MD-CSDNetwork: Multi-Domain Cross Stitched Network for Deepfake
Detection [80.83725644958633]
現在のディープフェイク生成法では、偽画像やビデオの周波数スペクトルに識別的アーティファクトが残されている。
MD-CSDNetwork(MD-CSDNetwork)と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2021-09-15T14:11:53Z) - Watching You: Global-guided Reciprocal Learning for Video-based Person
Re-identification [82.6971648465279]
映像に基づくRe-IDのための新しいグローバルガイド相互学習フレームワークを提案する。
我々のアプローチは他の最先端のアプローチよりも優れたパフォーマンスを達成できます。
論文 参考訳(メタデータ) (2021-03-07T12:27:42Z) - Deep Learning based Person Re-identification [2.9631016562930546]
カラーヒストグラムに基づく比較を最初に用いて,ギャラリーセットに最も近いマッチングを求める,効率的な階層的再同定手法を提案する。
シルエット部分に基づく特徴抽出スキームは、各階層に採用され、異なる身体構造の相対的な位置を保存する。
その結果、全体的な精度において、最先端のアプローチよりも優れた結果が得られた。
論文 参考訳(メタデータ) (2020-05-07T07:30:28Z) - Dense Residual Network: Enhancing Global Dense Feature Flow for
Character Recognition [75.4027660840568]
本稿では,すべての畳み込み層から階層的特徴をフルに活用することにより,局所的・大域的特徴フローを改善する方法について検討する。
技術的には、テキスト認識のための効率的で効果的なCNNフレームワークであるFDRN(Fast Dense Residual Network)を提案する。
論文 参考訳(メタデータ) (2020-01-23T06:55:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。