論文の概要: Image Retrieval for Structure-from-Motion via Graph Convolutional
Network
- arxiv url: http://arxiv.org/abs/2009.08049v1
- Date: Thu, 17 Sep 2020 04:03:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 11:38:15.752016
- Title: Image Retrieval for Structure-from-Motion via Graph Convolutional
Network
- Title(参考訳): グラフ畳み込みネットワークによる構造からのイメージ検索
- Authors: Shen Yan, Yang Pen, Shiming Lai, Yu Liu, Maojun Zhang
- Abstract要約: 本稿では,グラフ畳み込みネットワーク(GCN)に基づく新しい検索手法を提案する。
問合せ画像を取り巻くサブグラフを入力データとして構築することにより、問合せ画像と重なり合う領域を持つか否かを学習可能なGCNを採用する。
実験により,本手法は高度にあいまいで重複したシーンの挑戦的データセットにおいて,極めて優れた性能を示すことが示された。
- 参考スコア(独自算出の注目度): 13.040952255039702
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conventional image retrieval techniques for Structure-from-Motion (SfM)
suffer from the limit of effectively recognizing repetitive patterns and cannot
guarantee to create just enough match pairs with high precision and high
recall. In this paper, we present a novel retrieval method based on Graph
Convolutional Network (GCN) to generate accurate pairwise matches without
costly redundancy. We formulate image retrieval task as a node binary
classification problem in graph data: a node is marked as positive if it shares
the scene overlaps with the query image. The key idea is that we find that the
local context in feature space around a query image contains rich information
about the matchable relation between this image and its neighbors. By
constructing a subgraph surrounding the query image as input data, we adopt a
learnable GCN to exploit whether nodes in the subgraph have overlapping regions
with the query photograph. Experiments demonstrate that our method performs
remarkably well on the challenging dataset of highly ambiguous and duplicated
scenes. Besides, compared with state-of-the-art matchable retrieval methods,
the proposed approach significantly reduces useless attempted matches without
sacrificing the accuracy and completeness of reconstruction.
- Abstract(参考訳): sfm(structure-from-motion)の従来の画像検索技術は反復パターンを効果的に認識する限界に苦しむため,高精度かつ高リコールで十分なマッチングペアを作成できない。
本稿では,グラフ畳み込みネットワーク(GCN)に基づく新しい検索手法を提案する。
画像検索タスクをグラフデータ中のノードバイナリ分類問題として定式化し,そのシーンがクエリ画像と重なり合う場合,ノードを正にマークする。
重要なアイデアは、クエリ画像周辺の特徴空間のローカルコンテキストが、この画像とその隣人とのマッチング可能な関係に関する豊富な情報を含んでいることである。
問合せ画像を取り巻くサブグラフを入力データとして構築することにより、問合せ画像と重なり合う領域を持つか否かを学習可能なGCNを採用する。
実験により,高度にあいまいで重複したシーンの難易度の高いデータセットにおいて,提案手法が著しく有効であることを示す。
また,最先端のマッチング検索手法と比較して,提案手法は再現の精度と完全性を犠牲にすることなく,無駄なマッチングを著しく削減する。
関連論文リスト
- Breaking the Frame: Image Retrieval by Visual Overlap Prediction [53.17564423756082]
本稿では,隠蔽や複雑なシーンを効果的に扱う新しい視覚的位置認識手法,VOPを提案する。
提案手法は,高コストな特徴検出とマッチングを必要とせず,可視画像区間の識別を可能にする。
論文 参考訳(メタデータ) (2024-06-23T20:00:20Z) - PairingNet: A Learning-based Pair-searching and -matching Network for
Image Fragments [6.694162736590122]
本稿では,難解な修復問題を解決するために,学習に基づくイメージフラグメントのペア探索とマッチング手法を提案する。
提案するネットワークは,ペア探索の精度に優れ,マッチングエラーを低減し,計算時間を大幅に短縮する。
論文 参考訳(メタデータ) (2023-12-14T07:43:53Z) - Correlation Verification for Image Retrieval [15.823918683848877]
相関検証ネットワーク (CVNet) という新しい画像検索手法を提案する。
CVNetは、様々な画像対から多様な幾何マッチングパターンを学習しながら、高密度特徴相関を画像類似性に圧縮する。
提案するネットワークは,有意なマージンを有する複数の検索ベンチマークにおいて,最先端の性能を示す。
論文 参考訳(メタデータ) (2022-04-04T13:18:49Z) - Reinforcement Learning Based Query Vertex Ordering Model for Subgraph
Matching [58.39970828272366]
グラフマッチングアルゴリズムは、クエリグラフの埋め込みをデータグラフGに列挙する。
マッチング順序は、これらのバックトラックに基づくサブグラフマッチングアルゴリズムの時間効率において重要な役割を果たす。
本稿では,Reinforcement Learning (RL) と Graph Neural Networks (GNN) 技術を適用して,グラフマッチングアルゴリズムの高品質なマッチング順序を生成する。
論文 参考訳(メタデータ) (2022-01-25T00:10:03Z) - Learning Hierarchical Graph Representation for Image Manipulation
Detection [50.04902159383709]
画像操作検出の目的は、画像内の操作された領域を特定し、特定することである。
最近のアプローチでは、画像に残っている改ざんするアーティファクトをキャプチャするために、洗練された畳み込みニューラルネットワーク(CNN)が採用されている。
本稿では2つの並列分岐からなる階層型グラフ畳み込みネットワーク(HGCN-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-15T01:54:25Z) - RTIC: Residual Learning for Text and Image Composition using Graph
Convolutional Network [19.017377597937617]
画像検索のための画像とテキストの構成学習について検討する。
本稿では,グラフ畳み込みネットワーク(gcn)と既存の合成手法を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2021-04-07T09:41:52Z) - COTR: Correspondence Transformer for Matching Across Images [31.995943755283786]
本稿では,深層ニューラルネットワークに基づく画像の対応関係を探索する新しい枠組みを提案する。
そうすることで、興味のある点のみをクエリし、スパース対応を取り出すか、画像中のすべての点をクエリし、密接なマッピングを得ることができる。
論文 参考訳(メタデータ) (2021-03-25T22:47:02Z) - Context-Aware Graph Convolution Network for Target Re-identification [61.34688291210318]
提案手法は、人および車両再識別データセットにおける最先端のパフォーマンスを実現する。
本稿では,プローブとガリーの関係をグラフノードにエンコードする新しいコンテキストアウェアグラフ畳み込みネットワーク(cagcn)を提案する。
実験により,提案手法が車体および車体の再識別データセットにおいて最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2020-12-08T09:18:39Z) - Sequential Graph Convolutional Network for Active Learning [53.99104862192055]
逐次グラフ畳み込みネットワーク(GCN)を用いた新しいプールベースアクティブラーニングフレームワークを提案する。
少数のランダムなサンプル画像がシードラベル付き例であるので、グラフのパラメータを学習してラベル付きノードと非ラベル付きノードを区別する。
我々はGCNの特性を利用してラベル付けされたものと十分に異なる未ラベルの例を選択する。
論文 参考訳(メタデータ) (2020-06-18T00:55:10Z) - High-Order Information Matters: Learning Relation and Topology for
Occluded Person Re-Identification [84.43394420267794]
本稿では,高次関係とトポロジ情報を識別的特徴とロバストなアライメントのために学習し,新しい枠組みを提案する。
我々のフレームワークはOccluded-Dukeデータセットで最先端の6.5%mAPスコアを大幅に上回っている。
論文 参考訳(メタデータ) (2020-03-18T12:18:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。