論文の概要: SeedGNN: Graph Neural Networks for Supervised Seeded Graph Matching
- arxiv url: http://arxiv.org/abs/2205.13679v1
- Date: Thu, 26 May 2022 23:50:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-30 14:51:31.066222
- Title: SeedGNN: Graph Neural Networks for Supervised Seeded Graph Matching
- Title(参考訳): SeedGNN: 教師付きグラフマッチングのためのグラフニューラルネットワーク
- Authors: Liren Yu, Jiaming Xu, Xiaojun Lin
- Abstract要約: 本論文は、シードグラフマッチングのための教師付きアプローチを初めて提案するものである。
提案するSeedGNNアーキテクチャは,シードグラフマッチングの理論研究から着想を得た,新しい設計選択を多数採用している。
- 参考スコア(独自算出の注目度): 23.60042970011082
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, there have been significant interests in designing Graph Neural
Networks (GNNs) for seeded graph matching, which aims to match two (unlabeled)
graphs using only topological information and a small set of seeds. However,
most previous GNN architectures for seeded graph matching employ a
semi-supervised approach, which learns from only the seed set in a single pair
of graphs, and therefore does not attempt to learn from many training
examples/graphs to best match future unseen graphs. In contrast, this paper is
the first to propose a supervised approach for seeded graph matching, which had
so far only been used for seedless graph matching. Our proposed SeedGNN
architecture employs a number of novel design choices that are inspired by
theoretical studies of seeded graph matching. First, SeedGNN can easily learn
the capability of counting and using witnesses of different hops, in a way that
can be generalized to graphs with different sizes. Second, SeedGNN can use
easily-matched pairs as new seeds to percolate and match other nodes. We
evaluate SeedGNN on both synthetic and real graphs, and demonstrate significant
performance improvement over both non-learning and learning algorithms in the
existing literature. Further, our experiments confirm that the knowledge
learned by SeedGNN from training graphs can be generalized to test graphs with
different sizes and categories.
- Abstract(参考訳): 近年,2つの(ラベルのない)グラフをトポロジ情報と小さなシードセットのみを用いてマッチングすることを目的としたグラフマッチングのためのグラフニューラルネットワーク(GNN)の設計に大きな関心が寄せられている。
しかし、シードグラフマッチングのためのこれまでのほとんどのGNNアーキテクチャでは、半教師付きアプローチを採用しており、単一のグラフのシードセットのみから学習し、将来の未確認グラフに最も合うように多くのトレーニング例やグラフから学習しようとはしない。
対照的に本論文は,これまでシードレスグラフマッチングにのみ用いられてきたシードグラフマッチングの教師付きアプローチを提案する最初の例である。
提案するSeedGNNアーキテクチャは,シードグラフマッチングの理論研究から着想を得た,新しい設計選択を多数採用している。
まず、SeedGNNは、異なるサイズのグラフに一般化できる方法で、異なるホップの目撃者を数え、使用する能力を簡単に学習することができる。
第二に、SeedGNNは簡単にマッチしたペアを新しいシードとして使用して、他のノードをパーコレートし、マッチさせることができる。
我々は,SedGNNを合成グラフと実グラフの両方で評価し,既存の文献における非学習アルゴリズムと学習アルゴリズムを比較検討した。
さらに,SedGNNが学習した知識を,異なるサイズとカテゴリのグラフをテストするために一般化できることを確認した。
関連論文リスト
- Sketch-GNN: Scalable Graph Neural Networks with Sublinear Training Complexity [30.2972965458946]
グラフネットワーク(GNN)はノード分類などのグラフ学習問題に広く適用されている。
GNNの基盤となるグラフをより大きなサイズにスケールアップする場合、完全なグラフをトレーニングするか、あるいは完全なグラフの隣接とノードのメモリへの埋め込みを維持せざるを得ません。
本稿では,学習時間と記憶量がグラフサイズに比例して増加するスケッチベースアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-21T18:22:11Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Training Free Graph Neural Networks for Graph Matching [103.45755859119035]
TFGMは、グラフニューラルネットワーク(GNN)ベースのグラフマッチングのパフォーマンスをトレーニングなしで向上するフレームワークである。
TFGMをさまざまなGNNに適用することは、ベースラインよりも有望な改善を示している。
論文 参考訳(メタデータ) (2022-01-14T09:04:46Z) - Imbalanced Graph Classification via Graph-of-Graph Neural Networks [16.589373163769853]
グラフニューラルネットワーク(GNN)は、グラフの分類ラベルを識別するグラフ表現の学習において、前例のない成功を収めている。
本稿では,グラフ不均衡問題を軽減する新しいフレームワークであるグラフ・オブ・グラフニューラルネットワーク(G$2$GNN)を提案する。
提案したG$2$GNNは,F1-macroとF1-microのスコアにおいて,多くのベースラインを約5%上回る性能を示した。
論文 参考訳(メタデータ) (2021-12-01T02:25:47Z) - Co-embedding of Nodes and Edges with Graph Neural Networks [13.020745622327894]
グラフ埋め込みは、高次元および非ユークリッド特徴空間でデータ構造を変換しエンコードする方法である。
CensNetは一般的なグラフ埋め込みフレームワークで、ノードとエッジの両方を潜在機能空間に埋め込む。
提案手法は,4つのグラフ学習課題における最先端のパフォーマンスを達成または一致させる。
論文 参考訳(メタデータ) (2020-10-25T22:39:31Z) - Graph Contrastive Learning with Augmentations [109.23158429991298]
グラフデータの教師なし表現を学習するためのグラフコントラスト学習(GraphCL)フレームワークを提案する。
我々のフレームワークは、最先端の手法と比較して、類似またはより良い一般化可能性、転送可能性、堅牢性のグラフ表現を作成できることを示す。
論文 参考訳(メタデータ) (2020-10-22T20:13:43Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。