論文の概要: A Benchmark Comparison of Visual Place Recognition Techniques for
Resource-Constrained Embedded Platforms
- arxiv url: http://arxiv.org/abs/2109.11002v1
- Date: Wed, 22 Sep 2021 19:45:57 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-24 15:02:44.987715
- Title: A Benchmark Comparison of Visual Place Recognition Techniques for
Resource-Constrained Embedded Platforms
- Title(参考訳): リソース制約付き組込みプラットフォームにおける視覚位置認識手法のベンチマーク比較
- Authors: Rose Power, Mubariz Zaffar, Bruno Ferrarini, Michael Milford, Klaus
McDonald-Maier and Shoaib Ehsan
- Abstract要約: 本稿では,パブリックデータセット上での多数の最先端VPR技術について,ハードウェアに焦点を絞ったベンチマーク評価を行う。
我々は、ODroid、UP、Raspberry Pi 3などの一般的なシングルボードコンピュータに加えて、参照用のコモディティデスクトップとラップトップも検討している。
VPR技術のパフォーマンス精度は、プロセッサアーキテクチャでどのように変化しますか?
この研究の広範な分析と成果は、VPRコミュニティのベンチマークとして機能するだけでなく、VPRアプリケーションの現実的な採用に有用な洞察を提供する。
- 参考スコア(独自算出の注目度): 17.48671856442762
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual Place Recognition (VPR) has been a subject of significant research
over the last 15 to 20 years. VPR is a fundamental task for autonomous
navigation as it enables self-localization within an environment. Although
robots are often equipped with resource-constrained hardware, the computational
requirements of and effects on VPR techniques have received little attention.
In this work, we present a hardware-focused benchmark evaluation of a number of
state-of-the-art VPR techniques on public datasets. We consider popular single
board computers, including ODroid, UP and Raspberry Pi 3, in addition to a
commodity desktop and laptop for reference. We present our analysis based on
several key metrics, including place-matching accuracy, image encoding time,
descriptor matching time and memory needs. Key questions addressed include: (1)
How does the performance accuracy of a VPR technique change with processor
architecture? (2) How does power consumption vary for different VPR techniques
and embedded platforms? (3) How much does descriptor size matter in comparison
to today's embedded platforms' storage? (4) How does the performance of a
high-end platform relate to an on-board low-end embedded platform for VPR? The
extensive analysis and results in this work serve not only as a benchmark for
the VPR community, but also provide useful insights for real-world adoption of
VPR applications.
- Abstract(参考訳): 視覚的位置認識(VPR)は、過去15年から20年の間に重要な研究の対象となった。
VPRは、環境内での自己ローカライズを可能にするため、自律ナビゲーションの基本的なタスクである。
ロボットは資源に制約のあるハードウェアを備えていることが多いが、VPR技術に対する計算要求と効果はほとんど注目されていない。
本研究では,パブリックデータセット上での多数の最先端VPR技術について,ハードウェア中心のベンチマーク評価を行う。
我々は、ODroid、UP、Raspberry Pi 3などの一般的なシングルボードコンピュータに加えて、参照用のコモディティデスクトップとラップトップも検討している。
本稿では,位置マッチング精度,画像エンコーディング時間,ディスクリプタマッチング時間,メモリニーズなど,いくつかの指標に基づく分析を行う。
1)プロセッサアーキテクチャによるVPR技術の性能精度はどのように変化しますか?
2) 異なるVPR技術と組込みプラットフォームで電力消費はどのように変化するか?
(3) 現在の組み込みプラットフォームのストレージと比較して,ディスクリプタのサイズはどの程度重要か?
(4) ハイエンドプラットフォームのパフォーマンスは、vpr用のオンボードローエンド組み込みプラットフォームとどのように関係しますか?
この研究の広範な分析と成果は、VPRコミュニティのベンチマークとしてだけでなく、VPRアプリケーションの現実的な採用に有用な洞察を提供する。
関連論文リスト
- Deep Homography Estimation for Visual Place Recognition [49.235432979736395]
本稿では,変換器を用いたディープホモグラフィー推定(DHE)ネットワークを提案する。
バックボーンネットワークによって抽出された濃密な特徴写像を入力とし、高速で学習可能な幾何的検証のためにホモグラフィーに適合する。
ベンチマークデータセットを用いた実験により,本手法はいくつかの最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-02-25T13:22:17Z) - Harnessing Deep Learning and HPC Kernels via High-Level Loop and Tensor Abstractions on CPU Architectures [67.47328776279204]
この研究は、効率的でポータブルなDeep LearningとHigh Performance Computingカーネルを開発するためのフレームワークを導入している。
1)プロセッシングプリミティブ(TPP)を用いた計算コアの表現と,2)高レベルな宣言的手法でTPPのまわりの論理ループの表現の2つのステップでカーネルの開発を分解する。
我々は、スタンドアロンカーネルと、さまざまなCPUプラットフォームにおける最先端実装よりも優れたエンドツーエンドワークロードを使用して、このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-25T05:04:44Z) - A-MuSIC: An Adaptive Ensemble System For Visual Place Recognition In
Changing Environments [22.58641358408613]
視覚的位置認識(VPR)は、ロボットナビゲーションとローカライゼーションシステムにおいて不可欠な要素である。
すべての環境条件において、単一のVPR技術が優れているわけではない。
A-MuSIC(Adaptive Multi-Self Identification and Correction)と呼ばれる適応型VPRシステム
A-MuSICは、テストされたすべてのベンチマークデータセット間で最先端のVPRパフォーマンスにマッチまたは打ち勝つ。
論文 参考訳(メタデータ) (2023-03-24T19:25:22Z) - Visual Place Recognition: A Tutorial [40.576083932383895]
本論文は視覚的位置認識に関する最初のチュートリアル論文である。
これは、VPR問題の定式化、汎用的なアルゴリズムパイプライン、VPRアプローチの評価方法などのトピックをカバーしている。
Pythonの実践的なコード例は、VPRの実装と評価について、将来的な実践者や研究者に示している。
論文 参考訳(メタデータ) (2023-03-06T16:52:11Z) - StructVPR: Distill Structural Knowledge with Weighting Samples for
Visual Place Recognition [49.58170209388029]
視覚的位置認識(VPR)は通常、特定の画像検索問題と見なされる。
我々は、RGBグローバル機能における構造的知識を高めるために、VPRのための新しいトレーニングアーキテクチャであるStructVPRを提案する。
計算コストを低く保ちながら最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-12-02T02:52:01Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - Merging Classification Predictions with Sequential Information for
Lightweight Visual Place Recognition in Changing Environments [22.58641358408613]
低オーバーヘッド視覚的位置認識(VPR)は、非常に活発な研究トピックである。
モバイルロボティクスアプリケーションはローエンドのハードウェアの下で運用されることが多く、さらにハードウェア対応のシステムは、他のナビゲーションタスクのためにオンボードシステムリソースを解放することの恩恵を受けることができる。
この研究は、バイナリ重み付き分類器ネットワークと1次元畳み込みネットワークを組み合わせた新しいシステムの提案により、軽量なVPRに対処する。
論文 参考訳(メタデータ) (2022-10-03T11:42:08Z) - SwitchHit: A Probabilistic, Complementarity-Based Switching System for
Improved Visual Place Recognition in Changing Environments [20.917586014941033]
あらゆる種類の環境で動作可能な普遍的なVPR技術は存在しない。
リソース制約のある組み込みプラットフォームでは,複数のVPRテクニックの並列実行が禁止される可能性がある。
本稿では,確率的相補性に基づくスイッチングVPRシステムであるSwitchHitを提案する。
論文 参考訳(メタデータ) (2022-03-01T16:23:22Z) - Multi-scale Interaction for Real-time LiDAR Data Segmentation on an
Embedded Platform [62.91011959772665]
LiDARデータのリアルタイムセマンティックセグメンテーションは、自動運転車にとって不可欠である。
ポイントクラウド上で直接動作する現在のアプローチでは、複雑な空間集約操作を使用する。
本稿では,マルチスケールインタラクションネットワーク(MINet)と呼ばれるプロジェクションベースの手法を提案する。
論文 参考訳(メタデータ) (2020-08-20T19:06:11Z) - Pyramidal Convolution: Rethinking Convolutional Neural Networks for
Visual Recognition [98.10703825716142]
この研究は、複数のフィルタスケールで入力を処理できるピラミッド畳み込み(PyConv)を導入している。
PyConvをベースとした,画像分類,映像行動分類/認識,オブジェクト検出,意味的画像分割/パーシングの4つの主要なタスクについて,異なるアーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-06-20T10:19:29Z) - VPR-Bench: An Open-Source Visual Place Recognition Evaluation Framework
with Quantifiable Viewpoint and Appearance Change [25.853640977526705]
VPRの研究は、カメラハードウェアの改善とディープラーニングベースの技術の可能性により、過去10年間で急速に成長してきた。
この成長は、特に性能評価に関する分野における断片化と標準化の欠如につながった。
本稿では,VPR技術の性能評価を行うオープンソースフレームワーク「VPR-Bench」を通じて,これらのギャップに対処する。
論文 参考訳(メタデータ) (2020-05-17T00:27:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。