論文の概要: ResMatch: Residual Attention Learning for Local Feature Matching
- arxiv url: http://arxiv.org/abs/2307.05180v1
- Date: Tue, 11 Jul 2023 11:32:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-12 15:26:11.410201
- Title: ResMatch: Residual Attention Learning for Local Feature Matching
- Title(参考訳): ResMatch: ローカルな特徴マッチングのための残留注意学習
- Authors: Yuxin Deng and Jiayi Ma
- Abstract要約: 従来の特徴マッチングとフィルタリングの観点から、クロスアテンションとセルフアテンションを再考する。
我々は,記述者と相対的な位置の類似性を,クロスアテンションスコアとセルフアテンションスコアに注入する。
我々は、記述子と相対的な位置の類似性に応じて隣人内および隣人間を採掘する。
- 参考スコア(独自算出の注目度): 51.07496081296863
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Attention-based graph neural networks have made great progress in feature
matching learning. However, insight of how attention mechanism works for
feature matching is lacked in the literature. In this paper, we rethink cross-
and self-attention from the viewpoint of traditional feature matching and
filtering. In order to facilitate the learning of matching and filtering, we
inject the similarity of descriptors and relative positions into cross- and
self-attention score, respectively. In this way, the attention can focus on
learning residual matching and filtering functions with reference to the basic
functions of measuring visual and spatial correlation. Moreover, we mine intra-
and inter-neighbors according to the similarity of descriptors and relative
positions. Then sparse attention for each point can be performed only within
its neighborhoods to acquire higher computation efficiency. Feature matching
networks equipped with our full and sparse residual attention learning
strategies are termed ResMatch and sResMatch respectively. Extensive
experiments, including feature matching, pose estimation and visual
localization, confirm the superiority of our networks.
- Abstract(参考訳): 注意に基づくグラフニューラルネットワークは、特徴マッチング学習において大きな進歩を遂げている。
しかし,特徴マッチングのための注意機構の仕組みに関する知見は文献に欠落している。
本稿では,従来の特徴マッチングとフィルタリングの観点から,クロス・アンド・セルフアテンションを再考する。
マッチングとフィルタリングの学習を容易にするために,記述子と相対位置の類似度を,それぞれクロス・アテンションスコアと自己アテンションスコアに注入する。
このようにして,視覚と空間の相関を計測する基本的な機能に着目して,残差マッチングとフィルタリング関数の学習に注目することができる。
さらに,記述子と相対位置の類似性により,中間層間および中間層間を採掘する。
すると、各点に対する注意は、その近傍でのみ行え、高い計算効率を得ることができる。
完全注意学習戦略とスパース注意学習戦略を備えた特徴マッチングネットワークをそれぞれresmatchとsresmatchと呼ぶ。
特徴マッチング,ポーズ推定,視覚定位など広範な実験を行い,ネットワークの優位性を確認した。
関連論文リスト
- Learning Feature Matching via Matchable Keypoint-Assisted Graph Neural
Network [52.29330138835208]
画像のペア間の局所的な特徴の正確なマッチングは、コンピュータビジョンの課題である。
従来の研究では、注意に基づくグラフニューラルネットワーク(GNN)と、画像内のキーポイントに完全に接続されたグラフを使用するのが一般的だった。
本稿では,非繰り返しキーポイントをバイパスし,マッチング可能なキーポイントを利用してメッセージパッシングを誘導する,疎注意に基づくGNNアーキテクチャであるMaKeGNNを提案する。
論文 参考訳(メタデータ) (2023-07-04T02:50:44Z) - LEAD: Self-Supervised Landmark Estimation by Aligning Distributions of
Feature Similarity [49.84167231111667]
自己監督型ランドマーク検出における既存の研究は、画像から高密度(ピクセルレベルの)特徴表現を学習することに基づいている。
自己教師付き方式で高密度同変表現の学習を強化するアプローチを提案する。
機能抽出器にそのような先行性があることは,アノテーションの数が大幅に制限されている場合でも,ランドマーク検出に役立ちます。
論文 参考訳(メタデータ) (2022-04-06T17:48:18Z) - Kinship Verification Based on Cross-Generation Feature Interaction
Learning [53.62256887837659]
顔画像からの血縁検証は、コンピュータビジョンの応用において、新しいが挑戦的な技術として認識されている。
本稿では,頑健な親族関係検証のためのクロスジェネレーション・インタラクション・ラーニング(CFIL)フレームワークを提案する。
論文 参考訳(メタデータ) (2021-09-07T01:50:50Z) - Learning to Match Features with Seeded Graph Matching Network [35.70116378238535]
冗長な接続性を低減し,コンパクトな表現を学習する,スパース構造を持つグラフニューラルネットワークであるSeeded Graph Matching Networkを提案する。
実験により,本手法は典型的な注意型ネットワークと比較して計算量やメモリの複雑さを著しく低減することが示された。
論文 参考訳(メタデータ) (2021-08-19T16:25:23Z) - Toward Understanding the Feature Learning Process of Self-supervised
Contrastive Learning [43.504548777955854]
本研究では,その特徴学習過程を解析することにより,ニューラルネットワークの特徴表現のコントラスト学習について検討する。
textbfReLUネットワークを用いたコントラスト学習は、適切な拡張が採用されれば、所望のスパース特徴を確実に学習できることを実証する。
論文 参考訳(メタデータ) (2021-05-31T16:42:09Z) - Variational Structured Attention Networks for Deep Visual Representation
Learning [49.80498066480928]
空間的注意マップとチャネル的注意の両方を原則的に共同学習するための統合的深層フレームワークを提案する。
具体的には,確率的表現学習フレームワークに注目度の推定と相互作用を統合する。
ニューラルネットワーク内で推論ルールを実装し,確率パラメータとcnnフロントエンドパラメータのエンドツーエンド学習を可能にする。
論文 参考訳(メタデータ) (2021-03-05T07:37:24Z) - One Point is All You Need: Directional Attention Point for Feature
Learning [51.44837108615402]
ポイントクラウド分類やセグメンテーションなどのタスクのポイント機能強化を学習するための新しい注意ベースのメカニズムを提示する。
我々は,最先端のクラウド分類とセグメンテーションネットワークに注目機構を組み込むことができることを示す。
論文 参考訳(メタデータ) (2020-12-11T11:45:39Z) - Attention improves concentration when learning node embeddings [1.2233362977312945]
検索クエリテキストでラベル付けされたノードを考えると、製品を共有する関連クエリへのリンクを予測したい。
様々なディープニューラルネットワークを用いた実験では、注意機構を備えた単純なフィードフォワードネットワークが埋め込み学習に最適であることが示されている。
本稿では,クエリ生成モデルであるAttESTを提案する。このモデルでは,製品とクエリテキストの両方を,潜在空間に埋め込まれたベクトルとして見ることができる。
論文 参考訳(メタデータ) (2020-06-11T21:21:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。