論文の概要: Efficient and Accurate Co-Visible Region Localization with Matching
Key-Points Crop (MKPC): A Two-Stage Pipeline for Enhancing Image Matching
Performance
- arxiv url: http://arxiv.org/abs/2303.13794v1
- Date: Fri, 24 Mar 2023 04:18:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-27 15:43:26.609258
- Title: Efficient and Accurate Co-Visible Region Localization with Matching
Key-Points Crop (MKPC): A Two-Stage Pipeline for Enhancing Image Matching
Performance
- Title(参考訳): マッチングキーポイント作物(mkpc)を用いた効率的かつ高精度なコビナブル領域定位 : 画像マッチング性能向上のための2段階パイプライン
- Authors: Hongjian Song, Yuki Kashiwaba, Shuai Wu, Canming Wang
- Abstract要約: 画像マッチングのためのMKPCアルゴリズムを提案する。
MKPCは、非常に効率と精度のよい視認可能な領域である臨界領域を特定し、提案し、収穫する。
また、画像マッチングモデルや組み合わせと互換性のある、画像マッチングのための一般的な2段階パイプラインを提案する。
- 参考スコア(独自算出の注目度): 2.714583452862024
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image matching is a classic and fundamental task in computer vision. In this
paper, under the hypothesis that the areas outside the co-visible regions carry
little information, we propose a matching key-points crop (MKPC) algorithm. The
MKPC locates, proposes and crops the critical regions, which are the co-visible
areas with great efficiency and accuracy. Furthermore, building upon MKPC, we
propose a general two-stage pipeline for image matching, which is compatible to
any image matching models or combinations. We experimented with plugging
SuperPoint + SuperGlue into the two-stage pipeline, whose results show that our
method enhances the performance for outdoor pose estimations. What's more, in a
fair comparative condition, our method outperforms the SOTA on Image Matching
Challenge 2022 Benchmark, which represents the hardest outdoor benchmark of
image matching currently.
- Abstract(参考訳): 画像マッチングはコンピュータビジョンにおける古典的な基本的なタスクである。
本稿では,コビジブル領域以外の領域にはほとんど情報を持たないという仮説の下で,マッチング型キーポイント作物(MKPC)アルゴリズムを提案する。
MKPCは、非常に効率と精度のよい視認可能な領域である臨界領域を特定し、提案し、収穫する。
さらに,mkpcを基盤として,任意の画像マッチングモデルや組合せと互換性のある画像マッチングのための一般的な2段階パイプラインを提案する。
2段階のパイプラインにsuperpoint + superglueを差し込む実験を行い,提案手法が屋外ポーズ推定の性能を向上させることを示した。
さらに,本手法は,画像マッチングチャレンジ2022ベンチマークにおいて,現在最も難しい屋外ベンチマークであるsoma on image matching challenge 2022を上回っている。
関連論文リスト
- EI-Nexus: Towards Unmediated and Flexible Inter-Modality Local Feature Extraction and Matching for Event-Image Data [25.388293431298724]
イベントカメラは時間分解能が高く、ダイナミックレンジも高い。
EI-Nexusは,2つのモダリティ固有のキーポイント抽出器と特徴整合器を統合した,非媒介かつ柔軟なフレームワークである。
論文 参考訳(メタデータ) (2024-10-29T05:10:34Z) - Leveraging Cutting Edge Deep Learning Based Image Matching for
Reconstructing a Large Scene from Sparse Images [0.9065034043031668]
我々はAISG-SLAビジュアルローカライゼーションチャレンジベンチマーク(IJCAI 2023)の最上位のソリューションを提示する。
課題は、都市部を走行する車に搭載されたカメラによって連続して撮影された画像間の相対的な動きを推定することである。
画像のマッチングには、最新のディープラーニングベースのマーカRoMaを使用します。
論文 参考訳(メタデータ) (2023-10-02T11:05:18Z) - Improving Transformer-based Image Matching by Cascaded Capturing
Spatially Informative Keypoints [44.90917854990362]
変換器を用いたカスケードマッチングモデル -- Cascade Feature Matching TRansformer (CasMTR) を提案する。
我々は、信頼性マップを通じてキーポイントをフィルタリングするために、単純で効果的な非最大抑圧(NMS)後処理を使用する。
CasMTRは、室内および屋外のポーズ推定および視覚的位置推定において最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-03-06T04:32:34Z) - OAMatcher: An Overlapping Areas-based Network for Accurate Local Feature
Matching [9.006654114778073]
OAMatcherは、人間の動作を模倣して、密集した正確な一致を生成する、検知不要な手法である。
OAMatcherは重複する領域を予測し、効果的でクリーンなグローバルコンテキストアグリゲーションを促進する。
総合的な実験により、OAMatcherはいくつかのベンチマークで最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-02-12T03:32:45Z) - Towards Effective Image Manipulation Detection with Proposal Contrastive
Learning [61.5469708038966]
本稿では,効果的な画像操作検出のためのコントラスト学習(PCL)を提案する。
我々のPCLは、RGBとノイズビューから2種類のグローバル特徴を抽出し、2ストリームアーキテクチャで構成されている。
我々のPCLは、実際にラベル付けされていないデータに容易に適用でき、手作業によるラベル付けコストを削減し、より一般化可能な機能を促進することができる。
論文 参考訳(メタデータ) (2022-10-16T13:30:13Z) - Dense Siamese Network [86.23741104851383]
本稿では,Dense Siamese Network(DenseSiam)を提案する。
画像の2つのビュー間の類似性を最大化し、ピクセルの一貫性と領域の一貫性という2種類の一貫性を学習する。
最先端のセグメンテーション手法を2.1 mIoUで28%のトレーニングコストで上回っている。
論文 参考訳(メタデータ) (2022-03-21T15:55:23Z) - Guide Local Feature Matching by Overlap Estimation [9.387323456222823]
OETRというTRansformerを用いた画像ペア上でのオーバーラップ推定手法を提案する。
OETRは、特徴相関の2段階のプロセスで重なり推定を行い、次いで重なり回帰を行う。
実験の結果,OETRは局所的特徴マッチング性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-02-18T07:11:36Z) - P2-Net: Joint Description and Detection of Local Features for Pixel and
Point Matching [78.18641868402901]
この研究は、2D画像と3D点雲の微粒な対応を確立するための取り組みである。
画素領域と点領域の固有情報変動を緩和するために,新しい損失関数と組み合わせた超広帯域受信機構を設計した。
論文 参考訳(メタデータ) (2021-03-01T14:59:40Z) - Co-Attention for Conditioned Image Matching [91.43244337264454]
照明, 視点, コンテキスト, 素材に大きな変化がある場合, 野生のイメージペア間の対応性を決定するための新しい手法を提案する。
他のアプローチでは、イメージを個別に扱うことで、画像間の対応を見出すが、その代わりに、画像間の差異を暗黙的に考慮するよう、両画像に条件を付ける。
論文 参考訳(メタデータ) (2020-07-16T17:32:00Z) - DeepEMD: Differentiable Earth Mover's Distance for Few-Shot Learning [122.51237307910878]
我々は,画像領域間の最適なマッチングの新しい視点から,少数ショット画像分類法を開発した。
我々は、高密度画像表現間の構造距離を計算するために、Earth Mover's Distance (EMD) を用いている。
定式化において重要な要素の重みを生成するために,我々は相互参照機構を設計する。
論文 参考訳(メタデータ) (2020-03-15T08:13:16Z) - Towards High Performance Human Keypoint Detection [87.1034745775229]
文脈情報は人体構成や見えないキーポイントを推論する上で重要な役割を担っている。
そこで我々は,空間とチャネルのコンテキスト情報を効率的に統合するカスケードコンテキストミキサー(CCM)を提案する。
CCMの表現能力を最大化するために、我々は、強陰性な人検出マイニング戦略と共同訓練戦略を開発する。
検出精度を向上させるために,キーポイント予測を後処理するためのいくつかのサブピクセル改良手法を提案する。
論文 参考訳(メタデータ) (2020-02-03T02:24:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。