論文の概要: ClusterGNN: Cluster-based Coarse-to-Fine Graph Neural Network for
Efficient Feature Matching
- arxiv url: http://arxiv.org/abs/2204.11700v1
- Date: Mon, 25 Apr 2022 14:43:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 15:00:13.583028
- Title: ClusterGNN: Cluster-based Coarse-to-Fine Graph Neural Network for
Efficient Feature Matching
- Title(参考訳): ClusterGNN: 効率的な特徴マッチングのためのクラスタベース粗グラフニューラルネットワーク
- Authors: Yan Shi, Jun-Xiong Cai, Yoli Shavit, Tai-Jiang Mu, Wensen Feng and Kai
Zhang
- Abstract要約: ClusterGNNは、特徴マッチングタスクを学習するためのクラスタで動作する、注目のGNNアーキテクチャである。
提案手法では,59.7%のランタイム削減,58.4%のメモリ消費削減を実現している。
- 参考スコア(独自算出の注目度): 15.620335576962475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) with attention have been successfully applied
for learning visual feature matching. However, current methods learn with
complete graphs, resulting in a quadratic complexity in the number of features.
Motivated by a prior observation that self- and cross- attention matrices
converge to a sparse representation, we propose ClusterGNN, an attentional GNN
architecture which operates on clusters for learning the feature matching task.
Using a progressive clustering module we adaptively divide keypoints into
different subgraphs to reduce redundant connectivity, and employ a
coarse-to-fine paradigm for mitigating miss-classification within images. Our
approach yields a 59.7% reduction in runtime and 58.4% reduction in memory
consumption for dense detection, compared to current state-of-the-art GNN-based
matching, while achieving a competitive performance on various computer vision
tasks.
- Abstract(参考訳): 注目のグラフニューラルネットワーク(GNN)は視覚的特徴マッチングの学習に成功している。
しかし、現在の手法は完全なグラフで学習し、特徴数の二次的複雑さをもたらす。
自己および横断的注意行列がスパース表現に収束するという先行観測に触発されて,特徴マッチングタスクを学習するためのクラスタ上で動作する注目GNNアーキテクチャであるClusterGNNを提案する。
プログレッシブクラスタリングモジュールを使用して、キーポイントを異なるサブグラフに適応的に分割して冗長な接続を削減し、画像内のミスクラス化を緩和する粗雑なパラダイムを採用します。
提案手法は,現在最先端のGNNベースのマッチングと比較して,実行時の59.7%の削減,高密度検出のための58.4%のメモリ消費削減を実現している。
関連論文リスト
- T-GAE: Transferable Graph Autoencoder for Network Alignment [79.89704126746204]
T-GAEはグラフオートエンコーダフレームワークで、GNNの転送性と安定性を活用して、再トレーニングなしに効率的なネットワークアライメントを実現する。
実験の結果、T-GAEは最先端の最適化手法と最高のGNN手法を最大38.7%、50.8%で上回っていることがわかった。
論文 参考訳(メタデータ) (2023-10-05T02:58:29Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - DeepCut: Unsupervised Segmentation using Graph Neural Networks
Clustering [6.447863458841379]
本研究では,従来のクラスタリング手法を置き換える軽量グラフニューラルネットワーク(GNN)を提案する。
既存の手法とは異なり、GNNはローカル画像特徴と生特徴とのペアワイズ親和性の両方を入力として取ります。
画像セグメンテーションGNNを訓練するための自己教師付き損失関数として,古典的クラスタリングの目的を定式化する方法を実証する。
論文 参考訳(メタデータ) (2022-12-12T12:31:46Z) - Self-supervised Contrastive Attributed Graph Clustering [110.52694943592974]
我々は,自己教師型コントラストグラフクラスタリング(SCAGC)という,新たな属性グラフクラスタリングネットワークを提案する。
SCAGCでは,不正確なクラスタリングラベルを活用することで,ノード表現学習のための自己教師付きコントラスト損失を設計する。
OOSノードでは、SCAGCはクラスタリングラベルを直接計算できる。
論文 参考訳(メタデータ) (2021-10-15T03:25:28Z) - Attention-driven Graph Clustering Network [49.040136530379094]
我々は、注意駆動グラフクラスタリングネットワーク(AGCN)という新しいディープクラスタリング手法を提案する。
AGCNは、ノード属性特徴とトポロジグラフ特徴を動的に融合するために、不均一な融合モジュールを利用する。
AGCNは、教師なしの方法で特徴学習とクラスタ割り当てを共同で行うことができる。
論文 参考訳(メタデータ) (2021-08-12T02:30:38Z) - Learning Hierarchical Graph Neural Networks for Image Clustering [81.5841862489509]
本稿では,画像の集合を未知の個数にクラスタリングする方法を学ぶ階層型グラフニューラルネットワーク(GNN)モデルを提案する。
我々の階層的なGNNは、階層の各レベルで予測される連結コンポーネントをマージして、次のレベルで新しいグラフを形成するために、新しいアプローチを用いています。
論文 参考訳(メタデータ) (2021-07-03T01:28:42Z) - CAGNN: Cluster-Aware Graph Neural Networks for Unsupervised Graph
Representation Learning [19.432449825536423]
教師なしグラフ表現学習は、教師なしの低次元ノード埋め込みを学習することを目的としている。
本稿では、自己教師付き手法を用いた教師なしグラフ表現学習のための新しいクラスタ対応グラフニューラルネットワーク(CAGNN)モデルを提案する。
論文 参考訳(メタデータ) (2020-09-03T13:57:18Z) - Graph Clustering with Graph Neural Networks [5.305362965553278]
グラフニューラルネットワーク(GNN)は多くのグラフ解析タスクにおいて最先端の結果を得た。
グラフクラスタリングのようなグラフ上の教師なしの問題は、GNNの進歩に対してより抵抗性があることが証明されている。
本稿では,クラスタリング品質のモジュラリティ尺度にインスパイアされた教師なしプール手法であるDeep Modularity Networks (DMoN)を紹介する。
論文 参考訳(メタデータ) (2020-06-30T15:30:49Z) - Learning to Cluster Faces via Confidence and Connectivity Estimation [136.5291151775236]
重複する部分グラフを多数必要とせず,完全に学習可能なクラスタリングフレームワークを提案する。
提案手法はクラスタリングの精度を大幅に向上させ,その上で訓練した認識モデルの性能を向上させるが,既存の教師付き手法に比べて桁違いに効率的である。
論文 参考訳(メタデータ) (2020-04-01T13:39:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。