論文の概要: GMTR: Graph Matching Transformers
- arxiv url: http://arxiv.org/abs/2311.08141v1
- Date: Tue, 14 Nov 2023 13:12:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 14:16:42.514914
- Title: GMTR: Graph Matching Transformers
- Title(参考訳): GMTR:グラフマッチング変換器
- Authors: Jinpei Guo, Shaofeng Zhang, Runzhong Wang, Chang Liu, Junchi Yan
- Abstract要約: 視覚変換器(ViT)は近年,物体検出やセグメンテーション以外の視覚的マッチングに使用されている。
我々は,空間情報抽出の高速化を目的として,クロスアテンションモジュールとキーポイントに基づく中心作物戦略を採用した textbfQueryTrans (Query Transformer) を提案する。
- 参考スコア(独自算出の注目度): 64.8546470812683
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vision transformers (ViTs) have recently been used for visual matching beyond
object detection and segmentation. However, the original grid dividing strategy
of ViTs neglects the spatial information of the keypoints, limiting the
sensitivity to local information. Therefore, we propose \textbf{QueryTrans}
(Query Transformer), which adopts a cross-attention module and keypoints-based
center crop strategy for better spatial information extraction. We further
integrate the graph attention module and devise a transformer-based graph
matching approach \textbf{GMTR} (Graph Matching TRansformers) whereby the
combinatorial nature of GM is addressed by a graph transformer neural GM
solver. On standard GM benchmarks, GMTR shows competitive performance against
the SOTA frameworks. Specifically, on Pascal VOC, GMTR achieves
$\mathbf{83.6\%}$ accuracy, $\mathbf{0.9\%}$ higher than the SOTA framework. On
Spair-71k, GMTR shows great potential and outperforms most of the previous
works. Meanwhile, on Pascal VOC, QueryTrans improves the accuracy of NGMv2 from
$80.1\%$ to $\mathbf{83.3\%}$, and BBGM from $79.0\%$ to $\mathbf{84.5\%}$. On
Spair-71k, QueryTrans improves NGMv2 from $80.6\%$ to $\mathbf{82.5\%}$, and
BBGM from $82.1\%$ to $\mathbf{83.9\%}$. Source code will be made publicly
available.
- Abstract(参考訳): 視覚変換器(ViT)は近年,物体検出やセグメンテーション以外の視覚的マッチングに使用されている。
しかし、VTTの元々のグリッド分割戦略はキーポイントの空間情報を無視し、ローカル情報に対する感度を制限する。
そこで本稿では,クロスアテンションモジュールとキーポイントに基づく中心作物戦略を用いた空間情報抽出手法を応用した,\textbf{querytrans} (query transformer)を提案する。
さらに、グラフアテンションモジュールを統合して、グラフ変換器ニューラルGMソルバによってGMの組合せの性質に対処する、変換器ベースのグラフマッチングアプローチ \textbf{GMTR} (Graph Matching TRansformers) を考案する。
gm標準ベンチマークでは、gmtrはsataフレームワークに対する競争力を示している。
具体的には、Pascal VOCでは、GMTRはSOTAフレームワークよりも$\mathbf{83.6\%}$精度$\mathbf{0.9\%}$高い。
spair-71kではgmtrは大きな可能性を示し、以前の作品のほとんどを上回っている。
一方、Pascal VOCでは、QueryTransはNGMv2の精度を80.1\%$から$\mathbf{83.3\%}$に改善し、BBGMは79.0\%$から$\mathbf{84.5\%}$に改善した。
spair-71kでは、querytransはngmv2を$0.6\%$から$\mathbf{82.5\%}$に、bbgmを$22.1\%$から$\mathbf{83.9\%}$に改善する。
ソースコードは公開される予定だ。
関連論文リスト
- Graph as Point Set [31.448841287258116]
本稿では,相互接続ノードを独立点の集合に変換するグラフ・ツー・セット変換法を提案する。
これにより、セットエンコーダを使用してグラフから学習することが可能になり、グラフニューラルネットワークの設計空間が大幅に拡張される。
提案手法の有効性を示すために,グラフから変換された点集合を入力として受け入れる変換器アーキテクチャであるPoint Set Transformer (PST)を導入する。
論文 参考訳(メタデータ) (2024-05-05T02:29:41Z) - GraphGPT: Graph Learning with Generative Pre-trained Transformers [9.862004020075126]
自己教師型生成事前学習変換器によるグラフ学習の新しいモデルである textitGraphGPT を紹介する。
我々のモデルでは,各グラフやサンプリングされたサブグラフを,ノード,エッジ,属性を表すトークン列に変換する。
生成前トレーニングにより、パフォーマンスを継続的に向上させることなく、最大4M以上のパラメータをGraphGPTでトレーニングすることが可能になります。
論文 参考訳(メタデータ) (2023-12-31T16:19:30Z) - GeoTransformer: Fast and Robust Point Cloud Registration with Geometric
Transformer [63.85771838683657]
点雲登録のための正確な対応を抽出する問題について検討する。
最近のキーポイントフリー法は、繰り返し可能なキーポイントの検出をバイパスすることで大きなポテンシャルを示している。
そこで我々は,Geometric Transformer (Geo Transformer) を略して提案し,ロバストなスーパーポイントマッチングのための幾何学的特徴を学習する。
論文 参考訳(メタデータ) (2023-07-25T02:36:04Z) - Guided Patch-Grouping Wavelet Transformer with Spatial Congruence for
Ultra-High Resolution Segmentation [18.50799240622156]
GPWFormer(GPWFormer)の提案
$mathcalT$は、UHRイメージ全体を入力として取り、局所的な詳細と細かな長距離コンテキスト依存の両方を抽出する。
$mathcalC$は、カテゴリの深いコンテキストを学ぶための入力として、サンプルイメージを取ります。
論文 参考訳(メタデータ) (2023-07-03T02:19:48Z) - SegViTv2: Exploring Efficient and Continual Semantic Segmentation with
Plain Vision Transformers [76.13755422671822]
本稿では,エンコーダ・デコーダ・フレームワークを用いた意味的セグメンテーションのためのプレーンビジョン変換器(ViT)の能力について検討する。
Intention-to-Mask(atm)モジュールを導入し、平易なViTに有効な軽量デコーダを設計する。
我々のデコーダは、様々なViTバックボーンを使用して人気のあるデコーダUPerNetより優れ、計算コストの5%程度しか消費しない。
論文 参考訳(メタデータ) (2023-06-09T22:29:56Z) - PatchGT: Transformer over Non-trainable Clusters for Learning Graph
Representations [18.203910156450085]
我々は、新しいTransformerベースのグラフニューラルネットワーク、Patch Graph Transformer(PatchGT)を提案する。
グラフ表現を学習する従来のトランスフォーマーベースモデルとは異なり、PatchGTはノードから直接ではなく、トレーニング不可能なグラフパッチから学習する。
PatchGTは1-WL型GNNよりも高い性能を達成し,ベンチマークデータセット上でPatchGTが競合性能を達成することを示す実証的研究を行った。
論文 参考訳(メタデータ) (2022-11-26T01:17:23Z) - Pure Transformers are Powerful Graph Learners [51.36884247453605]
グラフ固有の修正のない標準変換器は、理論と実践の両方において、グラフ学習において有望な結果をもたらす可能性があることを示す。
このアプローチは、理論的には、同変線形層からなる不変グラフネットワーク(2-IGN)と同程度に表現可能であることを証明している。
提案手法は,Tokenized Graph Transformer (TokenGT) を作成した。
論文 参考訳(メタデータ) (2022-07-06T08:13:06Z) - Learning Tracking Representations via Dual-Branch Fully Transformer
Networks [82.21771581817937]
追従のためのトランスフォーマーのみをベースとした,シームズ型デュアルブランチネットワークを提案する。
注目ウィンドウ内の他のパッチとのマッチング結果に基づいて,各パッチの特徴ベクトルを抽出する。
この手法は、最高の性能の方法として、より良い結果または同等の結果を得る。
論文 参考訳(メタデータ) (2021-12-05T13:44:33Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。