論文の概要: A Complementarity-Based Switch-Fuse System for Improved Visual Place
Recognition
- arxiv url: http://arxiv.org/abs/2303.00714v1
- Date: Wed, 1 Mar 2023 18:19:10 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-02 13:43:23.797608
- Title: A Complementarity-Based Switch-Fuse System for Improved Visual Place
Recognition
- Title(参考訳): 視覚的位置認識のための相補性に基づくスイッチファウズシステム
- Authors: Maria Waheed, Sania Waheed, Michael Milford, Klaus McDonald-Maier and
Shoaib Ehsan
- Abstract要約: Switch-Fuseは、相補性に基づくVPR技術の変更の堅牢性と、慎重に選択したテクニックを融合させて性能を著しく向上させる力を組み合わせた興味深い方法である。
このシステムは2つの重要なプロセス(VPR技法の切り替えと融合)を組み合わせることで、ハイブリッドモデルと組み合わせることで、PR曲線を用いて示されるすべての主要なVPRデータセットのパフォーマンスを大幅に改善する。
- 参考スコア(独自算出の注目度): 19.14779092252812
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently several fusion and switching based approaches have been presented to
solve the problem of Visual Place Recognition. In spite of these systems
demonstrating significant boost in VPR performance they each have their own set
of limitations. The multi-process fusion systems usually involve employing
brute force and running all available VPR techniques simultaneously while the
switching method attempts to negate this practise by only selecting the best
suited VPR technique for given query image. But switching does fail at times
when no available suitable technique can be identified. An innovative solution
would be an amalgamation of the two otherwise discrete approaches to combine
their competitive advantages while negating their shortcomings. The proposed,
Switch-Fuse system, is an interesting way to combine both the robustness of
switching VPR techniques based on complementarity and the force of fusing the
carefully selected techniques to significantly improve performance. Our system
holds a structure superior to the basic fusion methods as instead of simply
fusing all or any random techniques, it is structured to first select the best
possible VPR techniques for fusion, according to the query image. The system
combines two significant processes, switching and fusing VPR techniques, which
together as a hybrid model substantially improve performance on all major VPR
data sets illustrated using PR curves.
- Abstract(参考訳): 近年,視覚位置認識の問題を解決するために,融合とスイッチングに基づく手法がいくつか提案されている。
これらのシステムはVPRのパフォーマンスを著しく向上させるが、それぞれに独自の制限がある。
マルチプロセス融合システムは、通常、ブルート力を使用し、利用可能なすべてのVPRテクニックを同時に実行し、一方、スイッチング法は、与えられたクエリ画像に最適なVPRテクニックを選択するだけで、このプラクティスを無効にしようとする。
しかし、適切なテクニックが特定できない場合、スイッチングは失敗する。
革新的な解決策は、その欠点を否定しながら競争上の優位性を組み合わせるために、2つの異なるアプローチを融合させることである。
提案システムであるSwitch-Fuseは,相補性に基づくVPR技術スイッチングの堅牢性と,慎重に選択した手法を融合させて性能を著しく向上させる力の両立を図っている。
本システムでは, 基本核融合法に勝る構造を有しており, 単にすべてのランダムな手法を融合させるのではなく, まず, 核融合のための最良のVPR技術を選択するように構成されている。
このシステムは2つの重要なプロセス(VPR技法の切り替えと融合)を組み合わせることで、ハイブリッドモデルとしてPR曲線を用いて示される主要なVPRデータセットの性能を大幅に改善する。
関連論文リスト
- Hybrid-Supervised Dual-Search: Leveraging Automatic Learning for
Loss-free Multi-Exposure Image Fusion [60.221404321514086]
マルチ露光画像融合(MEF)は、様々な露光レベルを表すデジタルイメージングの限界に対処するための重要な解決策である。
本稿では、ネットワーク構造と損失関数の両方を自動設計するための二段階最適化探索方式であるHSDS-MEFと呼ばれるMEFのためのハイブリッドスーパービジョンデュアルサーチ手法を提案する。
論文 参考訳(メタデータ) (2023-09-03T08:07:26Z) - A-MuSIC: An Adaptive Ensemble System For Visual Place Recognition In
Changing Environments [22.58641358408613]
視覚的位置認識(VPR)は、ロボットナビゲーションとローカライゼーションシステムにおいて不可欠な要素である。
すべての環境条件において、単一のVPR技術が優れているわけではない。
A-MuSIC(Adaptive Multi-Self Identification and Correction)と呼ばれる適応型VPRシステム
A-MuSICは、テストされたすべてのベンチマークデータセット間で最先端のVPRパフォーマンスにマッチまたは打ち勝つ。
論文 参考訳(メタデータ) (2023-03-24T19:25:22Z) - Quality-Based Conditional Processing in Multi-Biometrics: Application to
Sensor Interoperability [63.05238390013457]
2007年のバイオセキュリティ・マルチモーダル・アセスメント・キャンペーンにおいて,ATVS-UAM融合手法を品質ベースで評価し,評価を行った。
我々のアプローチは線形ロジスティック回帰に基づいており、融合したスコアはログライクな比率になる傾向にある。
その結果,提案手法はルールベースの核融合方式よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-11-24T12:11:22Z) - Boosting Performance of a Baseline Visual Place Recognition Technique by
Predicting the Maximally Complementary Technique [25.916992891359055]
最近の視覚的位置認識問題に対する有望な1つのアプローチは、複数の相補的なVPR手法の場所認識推定を融合させることである。
これらのアプローチでは、選択的に融合する前にすべての潜在的なVPRメソッドをブルートフォースで実行する必要がある。
ここでは、既知の単一ベースVPR技術から始まる別のアプローチを提案し、それと融合するために最も相補的な付加VPR技術を予測することを学ぶ。
論文 参考訳(メタデータ) (2022-10-14T04:32:23Z) - Optimizing Two-way Partial AUC with an End-to-end Framework [154.47590401735323]
ROC曲線のエリア(AUC)は、機械学習にとって重要な指標である。
最近の研究は、TPAUCが既存のPartial AUCメトリクスと本質的に矛盾していることを示している。
本論文では,この新指標を最適化するための最初の試行について述べる。
論文 参考訳(メタデータ) (2022-06-23T12:21:30Z) - SwitchHit: A Probabilistic, Complementarity-Based Switching System for
Improved Visual Place Recognition in Changing Environments [20.917586014941033]
あらゆる種類の環境で動作可能な普遍的なVPR技術は存在しない。
リソース制約のある組み込みプラットフォームでは,複数のVPRテクニックの並列実行が禁止される可能性がある。
本稿では,確率的相補性に基づくスイッチングVPRシステムであるSwitchHitを提案する。
論文 参考訳(メタデータ) (2022-03-01T16:23:22Z) - Low-light Image Enhancement by Retinex Based Algorithm Unrolling and
Adjustment [50.13230641857892]
本稿では,低照度画像強調(LIE)問題に対する新たなディープラーニングフレームワークを提案する。
提案フレームワークは,大域的明るさと局所的明るさ感度の両方を考慮したアルゴリズムアンロールと調整ネットワークに着想を得た分解ネットワークを含む。
一連の典型的なLIEデータセットの実験では,既存の手法と比較して,定量的かつ視覚的に,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2022-02-12T03:59:38Z) - Unsupervised Complementary-aware Multi-process Fusion for Visual Place
Recognition [28.235055888073855]
本稿では,現在のデプロイメント環境において,最も堅牢なVPR技術群を探索する教師なしアルゴリズムを提案する。
提案した動的マルチプロセス融合(Dyn-MPF)は,様々な競合手法と比較して,VPR性能が優れている。
論文 参考訳(メタデータ) (2021-12-09T04:57:33Z) - Light Field Saliency Detection with Dual Local Graph Learning
andReciprocative Guidance [148.9832328803202]
我々は、グラフネットワークを介して焦点スタック内のインフォメーション融合をモデル化する。
我々は、全焦点パタンを用いて焦点スタック融合過程をガイドする新しいデュアルグラフモデルを構築した。
論文 参考訳(メタデータ) (2021-10-02T00:54:39Z) - Improving Visual Place Recognition Performance by Maximising
Complementarity [22.37892767050086]
本稿では,最先端VPR手法の相互補完性を初めて体系的に検討する。
それらの組み合わせを識別することで、パフォーマンスが向上する。
結果は、広く使われている10のVPRデータセット上で8つの最先端のVPR手法に対して提示される。
論文 参考訳(メタデータ) (2021-02-16T19:18:33Z) - Deep Unfolding Network for Image Super-Resolution [159.50726840791697]
本稿では,学習に基づく手法とモデルに基づく手法の両方を活用する,エンドツーエンドのトレーニング可能なアンフォールディングネットワークを提案する。
提案するネットワークは, モデルベース手法の柔軟性を継承し, 一つのモデルを用いて, 異なるスケール要因に対する, 曖昧でノイズの多い画像の超解像化を行う。
論文 参考訳(メタデータ) (2020-03-23T17:55:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。