論文の概要: Boosting Performance of a Baseline Visual Place Recognition Technique by
Predicting the Maximally Complementary Technique
- arxiv url: http://arxiv.org/abs/2210.07509v1
- Date: Fri, 14 Oct 2022 04:32:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 17:45:15.587571
- Title: Boosting Performance of a Baseline Visual Place Recognition Technique by
Predicting the Maximally Complementary Technique
- Title(参考訳): 最大相補的手法の予測によるベースライン視覚位置認識技術の性能向上
- Authors: Connor Malone and Stephen Hausler and Tobias Fischer and Michael
Milford
- Abstract要約: 最近の視覚的位置認識問題に対する有望な1つのアプローチは、複数の相補的なVPR手法の場所認識推定を融合させることである。
これらのアプローチでは、選択的に融合する前にすべての潜在的なVPRメソッドをブルートフォースで実行する必要がある。
ここでは、既知の単一ベースVPR技術から始まる別のアプローチを提案し、それと融合するために最も相補的な付加VPR技術を予測することを学ぶ。
- 参考スコア(独自算出の注目度): 25.916992891359055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: One recent promising approach to the Visual Place Recognition (VPR) problem
has been to fuse the place recognition estimates of multiple complementary VPR
techniques using methods such as SRAL and multi-process fusion. These
approaches come with a substantial practical limitation: they require all
potential VPR methods to be brute-force run before they are selectively fused.
The obvious solution to this limitation is to predict the viable subset of
methods ahead of time, but this is challenging because it requires a predictive
signal within the imagery itself that is indicative of high performance
methods. Here we propose an alternative approach that instead starts with a
known single base VPR technique, and learns to predict the most complementary
additional VPR technique to fuse with it, that results in the largest
improvement in performance. The key innovation here is to use a dimensionally
reduced difference vector between the query image and the top-retrieved
reference image using this baseline technique as the predictive signal of the
most complementary additional technique, both during training and inference. We
demonstrate that our approach can train a single network to select performant,
complementary technique pairs across datasets which span multiple modes of
transportation (train, car, walking) as well as to generalise to unseen
datasets, outperforming multiple baseline strategies for manually selecting the
best technique pairs based on the same training data.
- Abstract(参考訳): 視覚的位置認識(VPR)問題に対する最近の有望なアプローチは、SRALやマルチプロセス融合といった手法を用いて、複数の相補的なVPR技術の場所認識推定を融合させることである。
これらのアプローチは、選択的に融合する前に全ての潜在的なVPRメソッドをブルートフォースで実行する必要がある。
この制限に対する明らかな解決策は、事前にメソッドの実行可能なサブセットを予測することだが、高パフォーマンスなメソッドを示すイメージ自体内の予測信号を必要とするため、これは困難である。
そこで,本研究では,既知の単一ベースvpr技術から始めて,それと融合する最も相補的な追加vpr技術を予測し,パフォーマンスを最大に向上させる代替手法を提案する。
ここでの重要な革新は、このベースライン技術を用いてクエリ画像とトップ検索参照画像との次元的に削減された差分ベクトルを、トレーニングと推論の両方において最も相補的な追加テクニックの予測信号として使うことである。
提案手法は,複数の移動モード(列車,車,歩行)にまたがるデータセットにまたがる補完的手法ペアを1つのネットワークで選択し,未発見のデータセットに一般化し,同一のトレーニングデータに基づいて最適なテクニックペアを手作業で選択する上で,複数のベースライン戦略に勝ることを示す。
関連論文リスト
- UAV-enabled Collaborative Beamforming via Multi-Agent Deep Reinforcement Learning [79.16150966434299]
本稿では,UAVを用いた協調ビームフォーミング多目的最適化問題 (UCBMOP) を定式化し,UAVの伝送速度を最大化し,全UAVのエネルギー消費を最小化する。
ヘテロジニアス・エージェント・信頼領域ポリシー最適化(HATRPO)を基本フレームワークとし,改良されたHATRPOアルゴリズム,すなわちHATRPO-UCBを提案する。
論文 参考訳(メタデータ) (2024-04-11T03:19:22Z) - Generalized Correspondence Matching via Flexible Hierarchical Refinement
and Patch Descriptor Distillation [13.802788788420175]
対応マッチングは多くのロボティクス応用において重要な役割を担っている。
本稿では,SoTA (State-of-the-art) のプラグ・アンド・プレイ対応手法であるDFM (Deep Feature Match) の限界に対処する。
提案手法は,それぞれ1,3,5画素に対する平均マッチング精度0.68,0.92,0.95の総合的な性能を実現する。
論文 参考訳(メタデータ) (2024-03-08T15:32:18Z) - DST-Det: Simple Dynamic Self-Training for Open-Vocabulary Object Detection [72.25697820290502]
この研究は、ゼロショット分類によって潜在的に新しいクラスを特定するための単純かつ効率的な戦略を導入する。
このアプローチは、アノテーションやデータセット、再学習を必要とせずに、新しいクラスのリコールと精度を高めるセルフトレーニング戦略として言及する。
LVIS、V3Det、COCOを含む3つのデータセットに対する実証的な評価は、ベースラインのパフォーマンスを大幅に改善したことを示している。
論文 参考訳(メタデータ) (2023-10-02T17:52:24Z) - A Complementarity-Based Switch-Fuse System for Improved Visual Place
Recognition [19.14779092252812]
Switch-Fuseは、相補性に基づくVPR技術の変更の堅牢性と、慎重に選択したテクニックを融合させて性能を著しく向上させる力を組み合わせた興味深い方法である。
このシステムは2つの重要なプロセス(VPR技法の切り替えと融合)を組み合わせることで、ハイブリッドモデルと組み合わせることで、PR曲線を用いて示されるすべての主要なVPRデータセットのパフォーマンスを大幅に改善する。
論文 参考訳(メタデータ) (2023-03-01T18:19:10Z) - Towards All-in-one Pre-training via Maximizing Multi-modal Mutual
Information [77.80071279597665]
マルチモーダル相互情報事前学習(M3I事前学習)を最大化するオールインワン単段階事前学習手法を提案する。
提案手法は,ImageNet分類,オブジェクト検出,LVIS長鎖オブジェクト検出,ADE20kセマンティックセマンティックセマンティックセマンティクスなど,様々なビジョンベンチマークにおける事前学習手法よりも優れた性能を実現する。
論文 参考訳(メタデータ) (2022-11-17T18:59:49Z) - Cluster-level pseudo-labelling for source-free cross-domain facial
expression recognition [94.56304526014875]
表情認識のためのSFUDA法を提案する。
本手法は,自己教師付き事前学習を利用して,対象データから優れた特徴表現を学習する。
提案手法の有効性を4つの適応方式で検証し,FERに適用した場合,既存のSFUDA法より一貫して優れていることを示す。
論文 参考訳(メタデータ) (2022-10-11T08:24:50Z) - Distributed Adversarial Training to Robustify Deep Neural Networks at
Scale [100.19539096465101]
現在のディープニューラルネットワーク(DNN)は、入力に対する敵の摂動が分類を変更したり操作したりする敵の攻撃に対して脆弱である。
このような攻撃を防御するために、敵の訓練(AT)として知られる効果的なアプローチが、堅牢な訓練を緩和するために示されている。
複数のマシンにまたがって実装された大規模バッチ対逆トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-13T15:39:43Z) - Towards a Unified Approach to Homography Estimation Using Image Features
and Pixel Intensities [0.0]
ホモグラフィ行列は、様々な視覚に基づくロボットタスクにおいて重要な要素である。
伝統的に、ホモグラフィー推定アルゴリズムは特徴ベースまたは強度ベースに分類される。
本稿では,2つのクラスを1つの非線形最適化手順に統合するハイブリッド手法を提案する。
論文 参考訳(メタデータ) (2022-02-20T02:47:05Z) - Unsupervised Complementary-aware Multi-process Fusion for Visual Place
Recognition [28.235055888073855]
本稿では,現在のデプロイメント環境において,最も堅牢なVPR技術群を探索する教師なしアルゴリズムを提案する。
提案した動的マルチプロセス融合(Dyn-MPF)は,様々な競合手法と比較して,VPR性能が優れている。
論文 参考訳(メタデータ) (2021-12-09T04:57:33Z) - Improving Visual Place Recognition Performance by Maximising
Complementarity [22.37892767050086]
本稿では,最先端VPR手法の相互補完性を初めて体系的に検討する。
それらの組み合わせを識別することで、パフォーマンスが向上する。
結果は、広く使われている10のVPRデータセット上で8つの最先端のVPR手法に対して提示される。
論文 参考訳(メタデータ) (2021-02-16T19:18:33Z) - Deep Unfolding Network for Image Super-Resolution [159.50726840791697]
本稿では,学習に基づく手法とモデルに基づく手法の両方を活用する,エンドツーエンドのトレーニング可能なアンフォールディングネットワークを提案する。
提案するネットワークは, モデルベース手法の柔軟性を継承し, 一つのモデルを用いて, 異なるスケール要因に対する, 曖昧でノイズの多い画像の超解像化を行う。
論文 参考訳(メタデータ) (2020-03-23T17:55:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。