論文の概要: Raising the Ceiling: Conflict-Free Local Feature Matching with Dynamic View Switching
- arxiv url: http://arxiv.org/abs/2407.07789v1
- Date: Wed, 10 Jul 2024 16:06:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-11 15:53:02.146502
- Title: Raising the Ceiling: Conflict-Free Local Feature Matching with Dynamic View Switching
- Title(参考訳): シーリングのライジング:動的ビュースイッチングによる競合のないローカル特徴マッチング
- Authors: Xiaoyong Lu, Songlin Du,
- Abstract要約: 本稿では3つの側面からマッチングのシーリングを向上するRCMという特徴マッチング手法を提案する。
RCMは、画像中のマッチング可能な点の不足に対処する動的ビュー切替機構を導入している。
RCMは、複数対1のマッチング戦略を通じて、ターゲット画像内の競合に対処する、競合のない粗いマッチングモジュールを提案する。
- 参考スコア(独自算出の注目度): 8.878053726388075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current feature matching methods prioritize improving modeling capabilities to better align outputs with ground-truth matches, which are the theoretical upper bound on matching results, metaphorically depicted as the "ceiling". However, these enhancements fail to address the underlying issues that directly hinder ground-truth matches, including the scarcity of matchable points in small scale images, matching conflicts in dense methods, and the keypoint-repeatability reliance in sparse methods. We propose a novel feature matching method named RCM, which Raises the Ceiling of Matching from three aspects. 1) RCM introduces a dynamic view switching mechanism to address the scarcity of matchable points in source images by strategically switching image pairs. 2) RCM proposes a conflict-free coarse matching module, addressing matching conflicts in the target image through a many-to-one matching strategy. 3) By integrating the semi-sparse paradigm and the coarse-to-fine architecture, RCM preserves the benefits of both high efficiency and global search, mitigating the reliance on keypoint repeatability. As a result, RCM enables more matchable points in the source image to be matched in an exhaustive and conflict-free manner in the target image, leading to a substantial 260% increase in ground-truth matches. Comprehensive experiments show that RCM exhibits remarkable performance and efficiency in comparison to state-of-the-art methods.
- Abstract(参考訳): 現代の特徴マッチング手法では、最適化能力の向上を優先し、結果の理論的上限である接地真実マッチング(英語版)と出力の整合性を改善する。
しかし、これらの拡張は、小規模な画像におけるマッチング可能な点の不足、密集した方法での競合の一致、スパース法におけるキーポイント・リピータビリティの信頼など、地道整合を直接妨げる根本的な問題に対処することができない。
本稿では3つの側面からマッチングのシーリングを向上するRCMという特徴マッチング手法を提案する。
1) RCMは, 画像対を戦略的に切り替えることで, 画像中の一致点の不足に対処する動的ビュー切替機構を導入している。
2) RCM は競合のない粗いマッチングモジュールを提案し,複数対1のマッチング戦略によって対象画像の競合に対処する。
3)半スパースパラダイムと粗大なアーキテクチャを統合することにより,RCMは高効率とグローバル検索の両方の利点を保ち,キーポイントの再現性への依存を緩和する。
その結果、RCMにより、ターゲット画像において、ソース画像のより整合性のある点が、徹底的かつ矛盾のない方法で一致し、グラウンドトルースマッチが260%増加する。
総合的な実験により、RCMは最先端の手法と比較して顕著な性能と効率を示した。
関連論文リスト
- NubbleDrop: A Simple Way to Improve Matching Strategy for Prompted One-Shot Segmentation [2.2559617939136505]
マッチング戦略の有効性とロバスト性を高めるための,単純で訓練のない手法を提案する。
中心となる概念は、マッチングプロセス中にランダムに特徴チャネル(0に設定する)をドロップすることである。
この手法は、病理的なヌブルの破棄を模倣し、他の類似性コンピューティングのシナリオにシームレスに適用することができる。
論文 参考訳(メタデータ) (2024-05-19T08:00:38Z) - Dynamic Weighted Combiner for Mixed-Modal Image Retrieval [8.683144453481328]
フレキシブル検索パラダイムとしてのMixed-Modal Image Retrieval (MMIR) が注目されている。
以前のアプローチは常に2つの重要な要因のため、限られたパフォーマンスを達成する。
以上の課題に対処するための動的重み付け結合器(DWC)を提案する。
論文 参考訳(メタデータ) (2023-12-11T07:36:45Z) - PAIF: Perception-Aware Infrared-Visible Image Fusion for Attack-Tolerant
Semantic Segmentation [50.556961575275345]
対向シーンにおけるセグメンテーションの堅牢性を促進するための認識認識型融合フレームワークを提案する。
我々は,先進の競争相手に比べて15.3% mIOUの利得で,ロバスト性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2023-08-08T01:55:44Z) - Bridging the Gap: Multi-Level Cross-Modality Joint Alignment for
Visible-Infrared Person Re-Identification [41.600294816284865]
Visible-Infrared Person Re-IDentification (VI-ReID)は、歩行者の画像を可視カメラと赤外線カメラに合わせることを目的としている。
モダリティギャップを解決するため、既存の主流手法では、画像検索タスクを画像分類タスクに変換する学習パラダイムを採用している。
モーダリティと目的レベルのギャップを埋める,単純かつ効果的な多層クロスモーダリティ共同アライメント(MCJA)を提案する。
論文 参考訳(メタデータ) (2023-07-17T08:24:05Z) - DDM-NET: End-to-end learning of keypoint feature Detection, Description
and Matching for 3D localization [34.66510265193038]
本稿では,キーポイント検出,記述子表現,フレーム間マッチングを共同で学習するエンドツーエンドフレームワークを提案する。
我々は特徴検出とマッチングの両方のための自己教師付き画像ワープ対応損失を設計する。
また,不整合/不整合一致と不整合一致の両方を頑健に処理する新たな損失を提案する。
論文 参考訳(メタデータ) (2022-12-08T21:43:56Z) - Global-and-Local Collaborative Learning for Co-Salient Object Detection [162.62642867056385]
Co-Salient Object Detection (CoSOD)の目標は、2つ以上の関連する画像を含むクエリグループに一般的に現れる有能なオブジェクトを見つけることである。
本稿では,グローバル対応モデリング(GCM)とローカル対応モデリング(LCM)を含む,グローバル・ローカル協調学習アーキテクチャを提案する。
提案したGLNetは3つの一般的なCoSODベンチマークデータセットに基づいて評価され、我々のモデルが小さなデータセット(約3k画像)でトレーニングされた場合、一部の大規模データセット(約8k-200k画像)でトレーニングされた11の最先端の競合製品(約8k-200k画像)を上回っていることを示す。
論文 参考訳(メタデータ) (2022-04-19T14:32:41Z) - A Novel Self-Supervised Cross-Modal Image Retrieval Method In Remote
Sensing [0.0]
クロスモーダルRS画像検索手法は、異なるモーダルにわたって意味論的に類似した画像を検索する。
既存のCM-RSIR法では、注釈付きトレーニング画像が必要であり、モーダル内およびモーダル間類似性保存とモーダル間差分除去を同時に処理しない。
本稿では,異なるモダリティ間の相互情報を自己教師型でモデル化することを目的とした,新たな自己教師型クロスモーダル画像検索手法を提案する。
論文 参考訳(メタデータ) (2022-02-23T11:20:24Z) - Exploring Separable Attention for Multi-Contrast MR Image
Super-Resolution [88.16655157395785]
本稿では,SANet という,分離可能なアテンションネットワーク (優先のアテンションと背景分離のアテンションを含む) を提案する。
補助コントラストの助けを借りて、前後方向の前景と背景領域を探索することができる。
これは、補助コントラストを用いて前景と背景領域を予測する分離可能なアテンションメカニズムを探索する最初のモデルである。
論文 参考訳(メタデータ) (2021-09-03T05:53:07Z) - MuCAN: Multi-Correspondence Aggregation Network for Video
Super-Resolution [63.02785017714131]
ビデオ超解像(VSR)は、複数の低解像度フレームを使用して、各フレームに対して高解像度の予測を生成することを目的としている。
フレーム間およびフレーム内は、時間的および空間的情報を利用するための鍵となるソースである。
VSRのための効果的なマルチ対応アグリゲーションネットワーク(MuCAN)を構築した。
論文 参考訳(メタデータ) (2020-07-23T05:41:27Z) - Co-Attention for Conditioned Image Matching [91.43244337264454]
照明, 視点, コンテキスト, 素材に大きな変化がある場合, 野生のイメージペア間の対応性を決定するための新しい手法を提案する。
他のアプローチでは、イメージを個別に扱うことで、画像間の対応を見出すが、その代わりに、画像間の差異を暗黙的に考慮するよう、両画像に条件を付ける。
論文 参考訳(メタデータ) (2020-07-16T17:32:00Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。