論文の概要: Intelligent Reference Curation for Visual Place Recognition via Bayesian
Selective Fusion
- arxiv url: http://arxiv.org/abs/2010.09228v2
- Date: Sun, 3 Jan 2021 22:28:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 22:52:24.154276
- Title: Intelligent Reference Curation for Visual Place Recognition via Bayesian
Selective Fusion
- Title(参考訳): ベイズ選択的融合による視覚位置認識のための知的基準キュレーション
- Authors: Timothy L. Molloy and Tobias Fischer and Michael Milford and Girish N.
Nair
- Abstract要約: 視覚的位置認識の鍵となる課題は、劇的な視覚的外観の変化にもかかわらず、場所を認識することである。
本稿では,情報参照画像を積極的に選択・融合する手法として,ベイズ選択融合(Bayesian Selective Fusion)を提案する。
我々のアプローチは、ダイナミックな視覚環境が一般的である長期的なロボット自律性に適している。
- 参考スコア(独自算出の注目度): 24.612272323346144
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A key challenge in visual place recognition (VPR) is recognizing places
despite drastic visual appearance changes due to factors such as time of day,
season, weather or lighting conditions. Numerous approaches based on
deep-learnt image descriptors, sequence matching, domain translation, and
probabilistic localization have had success in addressing this challenge, but
most rely on the availability of carefully curated representative reference
images of the possible places. In this paper, we propose a novel approach,
dubbed Bayesian Selective Fusion, for actively selecting and fusing informative
reference images to determine the best place match for a given query image. The
selective element of our approach avoids the counterproductive fusion of every
reference image and enables the dynamic selection of informative reference
images in environments with changing visual conditions (such as indoors with
flickering lights, outdoors during sunshowers or over the day-night cycle). The
probabilistic element of our approach provides a means of fusing multiple
reference images that accounts for their varying uncertainty via a novel
training-free likelihood function for VPR. On difficult query images from two
benchmark datasets, we demonstrate that our approach matches and exceeds the
performance of several alternative fusion approaches along with
state-of-the-art techniques that are provided with prior (unfair) knowledge of
the best reference images. Our approach is well suited for long-term robot
autonomy where dynamic visual environments are commonplace since it is
training-free, descriptor-agnostic, and complements existing techniques such as
sequence matching.
- Abstract(参考訳): 視覚的場所認識(VPR)における重要な課題は、日時、季節、天気、照明条件などの要因によって視覚的外観が劇的に変化するにもかかわらず、場所を認識することである。
ディープラーレント画像記述子、シーケンスマッチング、ドメイン翻訳、確率的ローカライゼーションに基づく多くのアプローチがこの課題に対処することに成功したが、ほとんどの場合、考えられる場所の注意深くキュレートされた参照画像に頼っている。
本稿では,提案手法であるベイズ選択的融合法(bayesian selective fusion)を提案する。
提案手法の選択的要素は,各参照画像の非生産的融合を回避し,視覚条件の変化を伴う環境(屋内で点滅ライトを点滅させたり,屋外で日光浴や昼夜サイクルなど)における情報的参照画像の動的選択を可能にする。
提案手法の確率的要素は,VPRの新たなトレーニング自由度関数により,様々な不確かさを考慮に入れた複数の参照画像を融合する手段を提供する。
2つのベンチマークデータセットからの難しい問合せ画像について,我々は,最良参照画像の事前(未熟)知識を付与した最先端技術とともに,いくつかの代替核融合手法の性能と一致し,その性能を上回っていることを実証する。
本手法は,動的視覚環境はトレーニング不要で記述子非依存であり,シーケンスマッチングなどの既存の手法を補完するので,長期的自律性に適している。
関連論文リスト
- Neural Cover Selection for Image Steganography [7.7961128660417325]
ステガノグラフィーでは、カバー選択と呼ばれる最適なカバー画像を選択することは、効果的なメッセージ隠蔽のために重要である。
近年のジェネレーティブモデルの発展に触発されて,新しいカバー選択フレームワークを導入する。
提案手法は, メッセージ回復と画像品質において大きな利点を示す。
論文 参考訳(メタデータ) (2024-10-23T18:32:34Z) - Dual-Image Enhanced CLIP for Zero-Shot Anomaly Detection [58.228940066769596]
本稿では,統合視覚言語スコアリングシステムを活用したデュアルイメージ強化CLIP手法を提案する。
提案手法は,画像のペアを処理し,それぞれを視覚的参照として利用することにより,視覚的コンテキストによる推論プロセスを強化する。
提案手法は視覚言語による関節異常検出の可能性を大幅に活用し,従来のSOTA法と同等の性能を示す。
論文 参考訳(メタデータ) (2024-05-08T03:13:20Z) - CricaVPR: Cross-image Correlation-aware Representation Learning for Visual Place Recognition [73.51329037954866]
視覚的位置認識のための画像間相関認識を用いたロバストなグローバル表現手法を提案する。
本手法では,バッチ内の複数の画像の相関にアテンション機構を用いる。
本手法は,訓練時間を大幅に短縮し,最先端の手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-02-29T15:05:11Z) - Coarse-to-Fine Latent Diffusion for Pose-Guided Person Image Synthesis [65.7968515029306]
PGPIS(Pose-Guided Person Image Synthesis)のためのCFLD(Coarse-to-Fine Latent Diffusion)法を提案する。
認識修正デコーダは、学習可能なクエリの集合を段階的に洗練し、粗いプロンプトとして人物画像の意味的理解を抽出するように設計されている。
論文 参考訳(メタデータ) (2024-02-28T06:07:07Z) - Unsupervised Complementary-aware Multi-process Fusion for Visual Place
Recognition [28.235055888073855]
本稿では,現在のデプロイメント環境において,最も堅牢なVPR技術群を探索する教師なしアルゴリズムを提案する。
提案した動的マルチプロセス融合(Dyn-MPF)は,様々な競合手法と比較して,VPR性能が優れている。
論文 参考訳(メタデータ) (2021-12-09T04:57:33Z) - Two-stage Visual Cues Enhancement Network for Referring Image
Segmentation [89.49412325699537]
Referring Image (RIS)は、ある自然言語表現によって参照される画像から対象のオブジェクトをセグメント化することを目的としている。
本稿では,2段階のビジュアルキュー拡張ネットワーク(TV-Net)を考案し,この問題に対処する。
この2段階の強化により,提案するTV-Netは,自然言語表現と画像間のきめ細かいマッチング動作の学習において,より優れた性能を享受できる。
論文 参考訳(メタデータ) (2021-10-09T02:53:39Z) - Enhance Images as You Like with Unpaired Learning [8.104571453311442]
本稿では,低照度から高照度の画像空間における一対多の関係を学習するために,軽量な一経路条件生成対向ネットワーク(cGAN)を提案する。
我々のネットワークは、様々な参照画像上に設定された所定の入力条件から、拡張された画像の集合を生成することを学習する。
我々のモデルは、ノイズとクリーンなデータセットの完全な教師付き手法と同等に競合する視覚的および定量的な結果を得る。
論文 参考訳(メタデータ) (2021-10-04T03:00:44Z) - Cross-Modal Retrieval Augmentation for Multi-Modal Classification [61.5253261560224]
画像の非構造化外部知識源とそれに対応するキャプションを用いて視覚的質問応答を改善する。
まず,画像とキャプションを同一空間に埋め込むための新しいアライメントモデルを訓練し,画像検索の大幅な改善を実現する。
第2に、トレーニングされたアライメントモデルを用いた検索強化マルチモーダルトランスは、強いベースライン上でのVQAの結果を改善することを示す。
論文 参考訳(メタデータ) (2021-04-16T13:27:45Z) - Robust Place Recognition using an Imaging Lidar [45.37172889338924]
本研究では,画像lidarを用いたロバストなリアルタイム位置認識手法を提案する。
本手法は真不変であり,逆再訪と逆逆再訪に対処できる。
論文 参考訳(メタデータ) (2021-03-03T01:08:31Z) - Learning to Compose Hypercolumns for Visual Correspondence [57.93635236871264]
本稿では,画像に条件付けされた関連レイヤを活用することで,動的に効率的な特徴を構成する視覚対応手法を提案する。
提案手法はダイナミックハイパーピクセルフロー(Dynamic Hyperpixel Flow)と呼ばれ,深層畳み込みニューラルネットワークから少数の関連層を選択することにより,高速にハイパーカラム機能を構成することを学習する。
論文 参考訳(メタデータ) (2020-07-21T04:03:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。