論文の概要: Guide Local Feature Matching by Overlap Estimation
- arxiv url: http://arxiv.org/abs/2202.09050v1
- Date: Fri, 18 Feb 2022 07:11:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-21 14:26:43.022005
- Title: Guide Local Feature Matching by Overlap Estimation
- Title(参考訳): オーバーラップ推定によるガイド局所特徴マッチング
- Authors: Ying Chen, Dihe Huang, Shang Xu, Jianlin Liu, Yong Liu
- Abstract要約: OETRというTRansformerを用いた画像ペア上でのオーバーラップ推定手法を提案する。
OETRは、特徴相関の2段階のプロセスで重なり推定を行い、次いで重なり回帰を行う。
実験の結果,OETRは局所的特徴マッチング性能を大幅に向上させることができることがわかった。
- 参考スコア(独自算出の注目度): 9.387323456222823
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Local image feature matching under large appearance, viewpoint, and distance
changes is challenging yet important. Conventional methods detect and match
tentative local features across the whole images, with heuristic consistency
checks to guarantee reliable matches. In this paper, we introduce a novel
Overlap Estimation method conditioned on image pairs with TRansformer, named
OETR, to constrain local feature matching in the commonly visible region. OETR
performs overlap estimation in a two-step process of feature correlation and
then overlap regression. As a preprocessing module, OETR can be plugged into
any existing local feature detection and matching pipeline, to mitigate
potential view angle or scale variance. Intensive experiments show that OETR
can boost state-of-the-art local feature matching performance substantially,
especially for image pairs with small shared regions. The code will be publicly
available at https://github.com/AbyssGaze/OETR.
- Abstract(参考訳): 大きな外観、視点、距離変化の下での局所的な画像特徴マッチングは、非常に重要である。
従来の方法では、画像全体にわたって暫定的な局所的な特徴を検出し、マッチングし、ヒューリスティックな一貫性チェックを行い、信頼性の高い一致を保証する。
本稿では,よく見られる領域における局所的特徴マッチングを制限するために,TRansformer と TRansformer を併用した新たなオーバーラップ推定手法を提案する。
OETRは特徴相関の2段階プロセスで重なり推定を行い、重なり回帰を行う。
事前処理モジュールとして、OETRは既存のローカルな特徴検出およびマッチングパイプラインにプラグインすることができ、潜在的なビュー角やスケールのばらつきを軽減することができる。
集中的な実験により,OETRは局所的特徴マッチング性能を大幅に向上させることができることがわかった。
コードはhttps://github.com/AbyssGaze/OETR.comで公開される。
関連論文リスト
- Leveraging Semantic Cues from Foundation Vision Models for Enhanced Local Feature Correspondence [12.602194710071116]
本稿では,基礎視覚モデルの特徴から意味的手がかりを抽出し,局所的特徴マッチングを強化する手法を提案する。
カメラのローカライゼーションにおける性能は平均29%向上し,既存の6つのディスクリプタの適応版を提示する。
論文 参考訳(メタデータ) (2024-10-12T13:45:26Z) - Breaking the Frame: Visual Place Recognition by Overlap Prediction [53.17564423756082]
本稿では,重なり合う予測に基づく新しい視覚的位置認識手法 VOP を提案する。
VOPは、Vision Transformerのバックボーンを使用してパッチレベルの埋め込みを取得することで、コビジュアブルなイメージセクションを進める。
提案手法では,データベース画像の重複点の評価に投票機構を用いる。
論文 参考訳(メタデータ) (2024-06-23T20:00:20Z) - Deep Homography Estimation for Visual Place Recognition [49.235432979736395]
本稿では,変換器を用いたディープホモグラフィー推定(DHE)ネットワークを提案する。
バックボーンネットワークによって抽出された濃密な特徴写像を入力とし、高速で学習可能な幾何的検証のためにホモグラフィーに適合する。
ベンチマークデータセットを用いた実験により,本手法はいくつかの最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-02-25T13:22:17Z) - Adaptive Spot-Guided Transformer for Consistent Local Feature Matching [64.30749838423922]
局所的特徴マッチングのための適応スポットガイド変換器(ASTR)を提案する。
ASTRは、統一された粗いアーキテクチャにおける局所的な一貫性とスケールのバリエーションをモデル化する。
論文 参考訳(メタデータ) (2023-03-29T12:28:01Z) - Improving Transformer-based Image Matching by Cascaded Capturing
Spatially Informative Keypoints [44.90917854990362]
変換器を用いたカスケードマッチングモデル -- Cascade Feature Matching TRansformer (CasMTR) を提案する。
我々は、信頼性マップを通じてキーポイントをフィルタリングするために、単純で効果的な非最大抑圧(NMS)後処理を使用する。
CasMTRは、室内および屋外のポーズ推定および視覚的位置推定において最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-03-06T04:32:34Z) - OAMatcher: An Overlapping Areas-based Network for Accurate Local Feature
Matching [9.006654114778073]
OAMatcherは、人間の動作を模倣して、密集した正確な一致を生成する、検知不要な手法である。
OAMatcherは重複する領域を予測し、効果的でクリーンなグローバルコンテキストアグリゲーションを促進する。
総合的な実験により、OAMatcherはいくつかのベンチマークで最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-02-12T03:32:45Z) - Towards Effective Image Manipulation Detection with Proposal Contrastive
Learning [61.5469708038966]
本稿では,効果的な画像操作検出のためのコントラスト学習(PCL)を提案する。
我々のPCLは、RGBとノイズビューから2種類のグローバル特徴を抽出し、2ストリームアーキテクチャで構成されている。
我々のPCLは、実際にラベル付けされていないデータに容易に適用でき、手作業によるラベル付けコストを削減し、より一般化可能な機能を促進することができる。
論文 参考訳(メタデータ) (2022-10-16T13:30:13Z) - Local Relation Learning for Face Forgery Detection [73.73130683091154]
局所的関係学習による顔の偽造検出の新たな視点を提案する。
具体的には,局所的な特徴間の類似度を測定するMPSM(Multi-scale Patch similarity Module)を提案する。
また、より包括的な局所特徴表現のために、RGBおよび周波数領域の情報を融合するRGB-Frequency Attention Module (RFAM)を提案する。
論文 参考訳(メタデータ) (2021-05-06T10:44:32Z) - LoFTR: Detector-Free Local Feature Matching with Transformers [40.754990768677295]
画像の特徴の検出,記述,マッチングを逐次行う代わりに,まず,粗いレベルで画素単位の密マッチングを確立することを提案する。
文の検索にコストボリュームを用いる高密度な手法とは対照的に,トランスフォーマーの自己と横断的な注意層を用いて,両画像に条件付けされた特徴記述子を得る。
屋内および屋外のデータセットの実験は、LoFTRが最先端の手法を大きなマージンで上回っていることを示しています。
論文 参考訳(メタデータ) (2021-04-01T17:59:42Z) - Patch2Pix: Epipolar-Guided Pixel-Level Correspondences [38.38520763114715]
Patch2Pixは,これらの提案によって定義された局所領域から画素レベルのマッチングを回帰することで,提案手法を洗練する新しい改良ネットワークである。
改良ネットワークは画像マッチング, ホモグラフィー推定, ローカライゼーションタスクにおいて, 対応ネットワークの性能を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2020-12-03T13:44:02Z) - Making Affine Correspondences Work in Camera Geometry Computation [62.7633180470428]
局所的な特徴は、ポイント・ツー・ポイント対応ではなく、リージョン・ツー・リージョンを提供する。
本稿では,全モデル推定パイプラインにおいて,地域間マッチングを効果的に活用するためのガイドラインを提案する。
実験により、アフィンソルバはより高速な実行時にポイントベースソルバに匹敵する精度を達成できることが示された。
論文 参考訳(メタデータ) (2020-07-20T12:07:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。