論文の概要: An Efficient and Scalable Collection of Fly-inspired Voting Units for
Visual Place Recognition in Changing Environments
- arxiv url: http://arxiv.org/abs/2109.10986v1
- Date: Wed, 22 Sep 2021 19:01:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-24 15:03:08.017567
- Title: An Efficient and Scalable Collection of Fly-inspired Voting Units for
Visual Place Recognition in Changing Environments
- Title(参考訳): 変化する環境における視覚位置認識のためのfly-inspired voting unitの効率的かつスケーラブルな収集
- Authors: Bruno Arcanjo, Bruno Ferrarini, Michael Milford, Klaus D.
McDonald-Maier and Shoaib Ehsan
- Abstract要約: ローオーバーヘッドのVPR技術は、ローエンドの安価なハードウェアを搭載したプラットフォームを可能にする。
我々のゴールは、外観変化と小さな視点変化に対する最先端のロバスト性を達成しつつ、極端なコンパクト性と効率のアルゴリズムを提供することである。
- 参考スコア(独自算出の注目度): 20.485491385050615
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: State-of-the-art visual place recognition performance is currently being
achieved utilizing deep learning based approaches. Despite the recent efforts
in designing lightweight convolutional neural network based models, these can
still be too expensive for the most hardware restricted robot applications.
Low-overhead VPR techniques would not only enable platforms equipped with
low-end, cheap hardware but also reduce computation on more powerful systems,
allowing these resources to be allocated for other navigation tasks. In this
work, our goal is to provide an algorithm of extreme compactness and efficiency
while achieving state-of-the-art robustness to appearance changes and small
point-of-view variations. Our first contribution is DrosoNet, an exceptionally
compact model inspired by the odor processing abilities of the fruit fly,
Drosophyla melanogaster. Our second and main contribution is a voting mechanism
that leverages multiple small and efficient classifiers to achieve more robust
and consistent VPR compared to a single one. We use DrosoNet as the baseline
classifier for the voting mechanism and evaluate our models on five benchmark
datasets, assessing moderate to extreme appearance changes and small to
moderate viewpoint variations. We then compare the proposed algorithms to
state-of-the-art methods, both in terms of precision-recall AUC results and
computational efficiency.
- Abstract(参考訳): 最先端の視覚的位置認識性能は、ディープラーニングに基づくアプローチを用いて現在達成されている。
最近の軽量畳み込みニューラルネットワークモデルの設計努力にもかかわらず、ほとんどのハードウェア制限されたロボットアプリケーションにとって、これらのモデルは高すぎる可能性がある。
低オーバヘッドのVPR技術は、ローエンドの安価なハードウェアを備えたプラットフォームを実現するだけでなく、より強力なシステムでの計算を減らし、これらのリソースを他のナビゲーションタスクに割り当てることを可能にした。
本研究の目的は,外観変化に対する最先端のロバスト性を実現するとともに,極端にコンパクトで効率の良いアルゴリズムを提供することである。
我々の最初の貢献は、ショウジョウバエの匂い処理能力にインスパイアされた、非常にコンパクトなモデルであるDrosoNetである。
2つ目の大きな貢献は、複数の小さな効率的な分類器を活用して、1つよりも堅牢で一貫性のあるvprを実現する、投票メカニズムです。
投票機構のベースライン分類器としてDrosoNetを使用し、5つのベンチマークデータセットでモデルを評価し、中程度から極端な外観変化と小規模から中程度の視点変化を評価した。
次に,提案手法と最先端手法を比較し,AUC結果の精度と計算効率を両立させる。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Aggregating Multiple Bio-Inspired Image Region Classifiers For Effective
And Lightweight Visual Place Recognition [22.09628302234166]
本稿では,VPR性能を大幅に改善したRereaDrosoNetと呼ばれる,新しいマルチDrosoNetローカライゼーションシステムを提案する。
我々のアプローチは、DrosoNetsの異なるグループを原画像の異なる分割分割に特化することに依存している。
我々は,全てのDrosoNetの出力を最終位置予測に組み合わせるための新しい投票モジュールを導入する。
論文 参考訳(メタデータ) (2023-12-20T12:57:01Z) - Sample Less, Learn More: Efficient Action Recognition via Frame Feature
Restoration [59.6021678234829]
本稿では,2つのスパースサンプリングおよび隣接するビデオフレームの中間特徴を復元する新しい手法を提案する。
提案手法の統合により, 一般的な3つのベースラインの効率は50%以上向上し, 認識精度は0.5%低下した。
論文 参考訳(メタデータ) (2023-07-27T13:52:42Z) - Patch-DrosoNet: Classifying Image Partitions With Fly-Inspired Models
For Lightweight Visual Place Recognition [22.58641358408613]
我々はDrosoNetの新しいトレーニング手法を提案し、参照画像の異なる領域で個別のモデルを訓練する。
また、各DrosoNetユニットがクエリ画像の各部分の配置予測を生成できる畳み込み型予測手法も導入する。
提案手法は,超コンパクトで軽量なアルゴリズムを維持しつつ,従来の作業のVPR性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-05-09T08:25:49Z) - Simple Pooling Front-ends For Efficient Audio Classification [56.59107110017436]
入力音声特徴量における時間的冗長性を排除することは,効率的な音声分類に有効な方法である可能性が示唆された。
本稿では、単純な非パラメトリックプーリング操作を用いて冗長な情報を削減する単純なプールフロントエンド(SimPFs)のファミリーを提案する。
SimPFは、市販オーディオニューラルネットワークの浮動小数点演算数の半数以上を削減できる。
論文 参考訳(メタデータ) (2022-10-03T14:00:41Z) - A Brain-Inspired Low-Dimensional Computing Classifier for Inference on
Tiny Devices [17.976792694929063]
超次元コンピューティング(HDC)に代わる低次元コンピューティング(LDC)を提案する。
我々は、LCC分類器をニューラルネットワークにマッピングし、原則化されたトレーニングアプローチを用いてモデルを最適化する。
我々のLCC分類器は、既存の脳にインスパイアされたHDCモデルに対して圧倒的な優位性を提供し、特に小さなデバイスでの推論に適している。
論文 参考訳(メタデータ) (2022-03-09T17:20:12Z) - Enhancing Object Detection for Autonomous Driving by Optimizing Anchor
Generation and Addressing Class Imbalance [0.0]
本研究では,より高速なR-CNNに基づく拡張型2次元物体検出器を提案する。
より高速なr-cnnに対する修正は計算コストを増加させず、他のアンカーベースの検出フレームワークを最適化するために容易に拡張できる。
論文 参考訳(メタデータ) (2021-04-08T16:58:31Z) - Adversarial Feature Augmentation and Normalization for Visual
Recognition [109.6834687220478]
最近のコンピュータビジョンの進歩は、分類モデルの一般化能力を改善するために、逆データ拡張を利用する。
本稿では,中間的特徴埋め込みにおける敵対的拡張を提唱する効率的かつ効率的な代替手法を提案する。
代表的なバックボーンネットワークを用いて,多様な視覚認識タスクにまたがる提案手法を検証する。
論文 参考訳(メタデータ) (2021-03-22T20:36:34Z) - Binary Neural Networks for Memory-Efficient and Effective Visual Place
Recognition in Changing Environments [24.674034243725455]
視覚的場所認識(VPR)は、視覚データを用いて、ある場所が訪れたかどうかを判断するロボットの能力である。
CNNベースのアプローチは、小さなロボットやドローンのようなリソース制約のあるプラットフォームには適さない。
本稿では,メモリ要求と計算労力を大幅に削減する,超コンパクトモデルの新たなクラスを提案する。
論文 参考訳(メタデータ) (2020-10-01T22:59:34Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - An Image Enhancing Pattern-based Sparsity for Real-time Inference on
Mobile Devices [58.62801151916888]
パターンと接続性を組み合わせた新しい空間空間,すなわちパターンベースの空間空間を導入し,高度に正確かつハードウェアに親しみやすいものにした。
新たなパターンベースの空間性に対する我々のアプローチは,モバイルプラットフォーム上での高効率DNN実行のためのコンパイラ最適化に自然に適合する。
論文 参考訳(メタデータ) (2020-01-20T16:17:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。