論文の概要: Patch-DrosoNet: Classifying Image Partitions With Fly-Inspired Models
For Lightweight Visual Place Recognition
- arxiv url: http://arxiv.org/abs/2305.05256v1
- Date: Tue, 9 May 2023 08:25:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-10 13:26:39.486393
- Title: Patch-DrosoNet: Classifying Image Partitions With Fly-Inspired Models
For Lightweight Visual Place Recognition
- Title(参考訳): Patch-DrosoNet: 軽量視覚位置認識のためのフライインスパイアモデルによる画像分割
- Authors: Bruno Arcanjo, Bruno Ferrarini, Michael Milford, Klaus D.
McDonald-Maier, Shoaib Ehsan
- Abstract要約: 我々はDrosoNetの新しいトレーニング手法を提案し、参照画像の異なる領域で個別のモデルを訓練する。
また、各DrosoNetユニットがクエリ画像の各部分の配置予測を生成できる畳み込み型予測手法も導入する。
提案手法は,超コンパクトで軽量なアルゴリズムを維持しつつ,従来の作業のVPR性能を大幅に向上させる。
- 参考スコア(独自算出の注目度): 22.58641358408613
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Visual place recognition (VPR) enables autonomous systems to localize
themselves within an environment using image information. While Convolution
Neural Networks (CNNs) currently dominate state-of-the-art VPR performance,
their high computational requirements make them unsuitable for platforms with
budget or size constraints. This has spurred the development of lightweight
algorithms, such as DrosoNet, which employs a voting system based on multiple
bio-inspired units. In this paper, we present a novel training approach for
DrosoNet, wherein separate models are trained on distinct regions of a
reference image, allowing them to specialize in the visual features of that
specific section. Additionally, we introduce a convolutional-like prediction
method, in which each DrosoNet unit generates a set of place predictions for
each portion of the query image. These predictions are then combined using the
previously introduced voting system. Our approach significantly improves upon
the VPR performance of previous work while maintaining an extremely compact and
lightweight algorithm, making it suitable for resource-constrained platforms.
- Abstract(参考訳): 視覚的位置認識(VPR)は、自律システムが画像情報を用いて環境内をローカライズすることを可能にする。
畳み込みニューラルネットワーク(CNN)が現在最先端のVPRパフォーマンスを支配しているが、その高い計算要求により、予算やサイズに制約のあるプラットフォームには適さない。
これは、複数のバイオインスパイアされたユニットに基づく投票システムを採用するdrosonetのような軽量アルゴリズムの開発を促した。
本稿では,DrosoNetに対して,参照画像の異なる領域で個別のモデルを訓練し,その部分の視覚的特徴を専門化するための新たなトレーニング手法を提案する。
さらに、各drosonetユニットがクエリ画像の各部分に対して一連の場所予測を生成する畳み込み型予測手法を提案する。
これらの予測は、以前に導入された投票システムを使って組み合わせられる。
提案手法は,非常にコンパクトで軽量なアルゴリズムを維持しつつ,従来の作業のVPR性能を大幅に向上させ,資源制約のあるプラットフォームに適している。
関連論文リスト
- Task-Oriented Real-time Visual Inference for IoVT Systems: A Co-design Framework of Neural Networks and Edge Deployment [61.20689382879937]
タスク指向エッジコンピューティングは、データ分析をエッジにシフトすることで、この問題に対処する。
既存の手法は、高いモデル性能と低いリソース消費のバランスをとるのに苦労している。
ニューラルネットワークアーキテクチャを最適化する新しい協調設計フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-29T19:02:54Z) - Neural Clustering based Visual Representation Learning [61.72646814537163]
クラスタリングは、機械学習とデータ分析における最も古典的なアプローチの1つである。
本稿では,特徴抽出をデータから代表者を選択するプロセスとみなすクラスタリング(FEC)による特徴抽出を提案する。
FECは、個々のクラスタにピクセルをグループ化して抽象的な代表を配置し、現在の代表とピクセルの深い特徴を更新する。
論文 参考訳(メタデータ) (2024-03-26T06:04:50Z) - Aggregating Multiple Bio-Inspired Image Region Classifiers For Effective
And Lightweight Visual Place Recognition [22.09628302234166]
本稿では,VPR性能を大幅に改善したRereaDrosoNetと呼ばれる,新しいマルチDrosoNetローカライゼーションシステムを提案する。
我々のアプローチは、DrosoNetsの異なるグループを原画像の異なる分割分割に特化することに依存している。
我々は,全てのDrosoNetの出力を最終位置予測に組み合わせるための新しい投票モジュールを導入する。
論文 参考訳(メタデータ) (2023-12-20T12:57:01Z) - ClusVPR: Efficient Visual Place Recognition with Clustering-based
Weighted Transformer [13.0858576267115]
ClusVPRは重複する領域における冗長な情報の特定の問題と、小さなオブジェクトの表現に対処する新しいアプローチである。
ClusVPRはClustering-based weighted Transformer Network (CWTNet)と呼ばれるユニークなパラダイムを導入した
また,パラメータ数を大幅に削減し,モデル効率を向上させる最適化VLAD層を導入する。
論文 参考訳(メタデータ) (2023-10-06T09:01:15Z) - Deep Learning Computer Vision Algorithms for Real-time UAVs On-board
Camera Image Processing [77.34726150561087]
本稿では,ディープラーニングに基づくコンピュータビジョンアルゴリズムを用いて,小型UAVのリアルタイムセンサ処理を実現する方法について述べる。
すべてのアルゴリズムは、ディープニューラルネットワークに基づく最先端の画像処理手法を用いて開発されている。
論文 参考訳(メタデータ) (2022-11-02T11:10:42Z) - Glance and Focus Networks for Dynamic Visual Recognition [36.26856080976052]
画像認識問題を,人間の視覚系を模倣した逐次的粗い特徴学習プロセスとして定式化する。
提案したGlance and Focus Network(GFNet)は,まず低解像度スケールで入力画像の迅速なグローバルな表現を抽出し,その後,より微細な特徴を学習するために,一連の局所的(小さな)領域に戦略的に参画する。
これは、iPhone XS Max上の高効率のMobileNet-V3の平均遅延を、精度を犠牲にすることなく1.3倍削減する。
論文 参考訳(メタデータ) (2022-01-09T14:00:56Z) - Optimising for Interpretability: Convolutional Dynamic Alignment
Networks [108.83345790813445]
我々は、畳み込み動的アライメントネットワーク(CoDA Nets)と呼ばれる新しいニューラルネットワークモデルを紹介する。
彼らの中核となるビルディングブロックは動的アライメントユニット(DAU)であり、タスク関連パターンに合わせて動的に計算された重みベクトルで入力を変換するように最適化されている。
CoDAネットは一連の入力依存線形変換を通じて分類予測をモデル化し、出力を個々の入力コントリビューションに線形分解することができる。
論文 参考訳(メタデータ) (2021-09-27T12:39:46Z) - An Efficient and Scalable Collection of Fly-inspired Voting Units for
Visual Place Recognition in Changing Environments [20.485491385050615]
ローオーバーヘッドのVPR技術は、ローエンドの安価なハードウェアを搭載したプラットフォームを可能にする。
我々のゴールは、外観変化と小さな視点変化に対する最先端のロバスト性を達成しつつ、極端なコンパクト性と効率のアルゴリズムを提供することである。
論文 参考訳(メタデータ) (2021-09-22T19:01:20Z) - A Deep-Unfolded Reference-Based RPCA Network For Video
Foreground-Background Separation [86.35434065681925]
本稿では,ロバスト主成分分析(RPCA)問題に対するディープアンフォールディングに基づくネットワーク設計を提案する。
既存の設計とは異なり,本手法は連続するビデオフレームのスパース表現間の時間的相関をモデル化することに焦点を当てている。
移動MNISTデータセットを用いた実験により、提案したネットワークは、ビデオフォアグラウンドとバックグラウンドの分離作業において、最近提案された最先端のRPCAネットワークより優れていることが示された。
論文 参考訳(メタデータ) (2020-10-02T11:40:09Z) - Learning to Learn Parameterized Classification Networks for Scalable
Input Images [76.44375136492827]
畳み込みニューラルネットワーク(CNN)は、入力解像度の変化に関して予測可能な認識動作を持たない。
我々はメタラーナーを用いて、様々な入力スケールのメインネットワークの畳み込み重みを生成する。
さらに、異なる入力解像度に基づいて、モデル予測よりもフライでの知識蒸留を利用する。
論文 参考訳(メタデータ) (2020-07-13T04:27:25Z) - Contextual Encoder-Decoder Network for Visual Saliency Prediction [42.047816176307066]
本稿では,大規模な画像分類タスクに基づいて事前学習した畳み込みニューラルネットワークに基づくアプローチを提案する。
得られた表現をグローバルなシーン情報と組み合わせて視覚的サリエンシを正確に予測する。
最先端技術と比較して、このネットワークは軽量な画像分類バックボーンに基づいている。
論文 参考訳(メタデータ) (2019-02-18T16:15:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。