論文の概要: Graph Context Transformation Learning for Progressive Correspondence
Pruning
- arxiv url: http://arxiv.org/abs/2312.15971v1
- Date: Tue, 26 Dec 2023 09:43:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 15:35:36.385091
- Title: Graph Context Transformation Learning for Progressive Correspondence
Pruning
- Title(参考訳): プログレッシブ対応プルーニングのためのグラフコンテキスト変換学習
- Authors: Junwen Guo, Guobao Xiao, Shiping Wang, Jun Yu
- Abstract要約: 本稿では,プログレッシブ対応プルーニングのためのコンセンサスガイダンスを行うために,文脈情報を強化するグラフコンテキスト変換ネットワーク(GCT-Net)を提案する。
具体的には、まずグラフネットワークを生成し、次にマルチブランチグラフコンテキストに変換するグラフコンテキストエンハンス変換器を設計する。
そこで本稿では,グラフ・コンテキスト・ガイダンス・トランスフォーマ(Graph Context Guidance Transformer)を提案する。
- 参考スコア(独自算出の注目度): 26.400567961735234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most of existing correspondence pruning methods only concentrate on gathering
the context information as much as possible while neglecting effective ways to
utilize such information. In order to tackle this dilemma, in this paper we
propose Graph Context Transformation Network (GCT-Net) enhancing context
information to conduct consensus guidance for progressive correspondence
pruning. Specifically, we design the Graph Context Enhance Transformer which
first generates the graph network and then transforms it into multi-branch
graph contexts. Moreover, it employs self-attention and cross-attention to
magnify characteristics of each graph context for emphasizing the unique as
well as shared essential information. To further apply the recalibrated graph
contexts to the global domain, we propose the Graph Context Guidance
Transformer. This module adopts a confident-based sampling strategy to
temporarily screen high-confidence vertices for guiding accurate classification
by searching global consensus between screened vertices and remaining ones. The
extensive experimental results on outlier removal and relative pose estimation
clearly demonstrate the superior performance of GCT-Net compared to
state-of-the-art methods across outdoor and indoor datasets. The source code
will be available at: https://github.com/guobaoxiao/GCT-Net/.
- Abstract(参考訳): 既存の対応プルーニング手法のほとんどは、そのような情報を利用する効果的な方法を無視しながら、可能な限りコンテキスト情報を集めることに集中している。
本稿では,このジレンマに対処するため,プログレッシブ対応プルーニングのためのコンセンサスガイダンスを行うために,文脈情報を強化するグラフコンテキスト変換ネットワーク(GCT-Net)を提案する。
具体的には、まずグラフネットワークを生成し、次にマルチブランチグラフコンテキストに変換するグラフコンテキストエンハンス変換器を設計する。
さらに、各グラフコンテキストの特徴を拡大するために、自己注意と相互注意を用いて、ユニークさと共有必須情報を強調する。
さらに,再調整されたグラフコンテキストをグローバルドメインに適用するために,グラフコンテキストガイダンストランスフォーマを提案する。
このモジュールは、信頼度に基づくサンプリング戦略を採用し、スクリーニングされた頂点と残りの頂点とのグローバルコンセンサスを探索することにより、正確な分類を導くために、高信頼度頂点を一時的にスクリーニングする。
屋外および屋内のデータセットを対象とする最先端手法と比較して,GCT-Netのアウトラヤ除去と相対ポーズ推定の広範な実験結果が優れた性能を示した。
ソースコードはhttps://github.com/guobaoxiao/gct-net/。
関連論文リスト
- A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Graph Transformer GANs with Graph Masked Modeling for Architectural
Layout Generation [153.92387500677023]
本稿では,グラフノード関係を効果的に学習するために,GTGAN(Graph Transformer Generative Adversarial Network)を提案する。
提案したグラフ変換器エンコーダは、局所的およびグローバルな相互作用をモデル化するために、Transformer内のグラフ畳み込みと自己アテンションを組み合わせる。
また,グラフ表現学習のための自己指導型事前学習手法を提案する。
論文 参考訳(メタデータ) (2024-01-15T14:36:38Z) - Feature propagation as self-supervision signals on graphs [0.0]
正規化グラフ情報最大(RGI)は、ノードレベルの自己教師型学習のためのシンプルだが効果的なフレームワークである。
RGIは,その単純さに拘わらず,最先端のパフォーマンスを実現することができることを示す。
論文 参考訳(メタデータ) (2023-03-15T14:20:06Z) - You Only Transfer What You Share: Intersection-Induced Graph Transfer
Learning for Link Prediction [79.15394378571132]
従来見過ごされていた現象を調査し、多くの場合、元のグラフに対して密に連結された補グラフを見つけることができる。
より密度の高いグラフは、選択的で有意義な知識を伝達するための自然なブリッジを提供する元のグラフとノードを共有することができる。
この設定をグラフインターセクション誘導トランスファーラーニング(GITL)とみなし,eコマースや学術共同オーサシップ予測の実践的応用に動機づけられた。
論文 参考訳(メタデータ) (2023-02-27T22:56:06Z) - Optimal Propagation for Graph Neural Networks [51.08426265813481]
最適グラフ構造を学習するための二段階最適化手法を提案する。
また、時間的複雑さをさらに軽減するために、低ランク近似モデルについても検討する。
論文 参考訳(メタデータ) (2022-05-06T03:37:00Z) - Representing Long-Range Context for Graph Neural Networks with Global
Attention [37.212747564546156]
本稿では,トランスフォーマーに基づく自己認識を用いて,長距離ペア関係の学習を提案する。
提案手法はGraphTransと呼ばれ,標準のGNNモジュールに代えて置換不変なTransformerモジュールを適用している。
その結果,グラフ構造を持たない純粋学習に基づくアプローチは,グラフ上の高レベルな長距離関係を学習するのに適している可能性が示唆された。
論文 参考訳(メタデータ) (2022-01-21T18:16:21Z) - A Robust and Generalized Framework for Adversarial Graph Embedding [73.37228022428663]
本稿では,AGE という逆グラフ埋め込みのための頑健なフレームワークを提案する。
AGEは、暗黙の分布から強化された負のサンプルとして偽の隣接ノードを生成する。
本フレームワークでは,3種類のグラフデータを扱う3つのモデルを提案する。
論文 参考訳(メタデータ) (2021-05-22T07:05:48Z) - Learnable Graph Matching: Incorporating Graph Partitioning with Deep
Feature Learning for Multiple Object Tracking [58.30147362745852]
フレーム間のデータアソシエーションは、Multiple Object Tracking(MOT)タスクの中核にある。
既存の手法は、主にトラックレットとフレーム内検出の間のコンテキスト情報を無視する。
そこで本研究では,学習可能なグラフマッチング手法を提案する。
論文 参考訳(メタデータ) (2021-03-30T08:58:45Z) - Sub-graph Contrast for Scalable Self-Supervised Graph Representation
Learning [21.0019144298605]
既存のグラフニューラルネットワークは、計算量やメモリコストが限られているため、完全なグラフデータで供給される。
textscSubg-Conは、中央ノードとそのサンプルサブグラフ間の強い相関を利用して、地域構造情報をキャプチャすることで提案される。
既存のグラフ表現学習アプローチと比較して、textscSubg-Conは、より弱い監視要件、モデル学習のスケーラビリティ、並列化において、顕著なパフォーマンス上のアドバンテージを持っています。
論文 参考訳(メタデータ) (2020-09-22T01:58:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。