論文の概要: Training Free Graph Neural Networks for Graph Matching
- arxiv url: http://arxiv.org/abs/2201.05349v1
- Date: Fri, 14 Jan 2022 09:04:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-17 14:54:40.739760
- Title: Training Free Graph Neural Networks for Graph Matching
- Title(参考訳): グラフマッチングのための自由グラフニューラルネットワークのトレーニング
- Authors: Zhiyuan Liu, Yixin Cao, Fuli Feng, Xiang Wang, Xindi Shang, Jie Tang,
Kenji Kawaguchi, Tat-Seng Chua
- Abstract要約: TFGMは、グラフニューラルネットワーク(GNN)ベースのグラフマッチングのパフォーマンスをトレーニングなしで向上するフレームワークである。
TFGMをさまざまなGNNに適用することは、ベースラインよりも有望な改善を示している。
- 参考スコア(独自算出の注目度): 103.45755859119035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present TFGM (Training Free Graph Matching), a framework to boost the
performance of Graph Neural Networks (GNNs) based graph matching without
training. TFGM sidesteps two crucial problems when training GNNs: 1) the
limited supervision due to expensive annotation, and 2) training's
computational cost. A basic framework, BasicTFGM, is first proposed by adopting
the inference stage of graph matching methods. Our analysis shows that the
BasicTFGM is a linear relaxation to the quadratic assignment formulation of
graph matching. This guarantees the preservation of structure compatibility and
an efficient polynomial complexity. Empirically, we further improve the
BasicTFGM by handcrafting two types of matching priors into the architecture of
GNNs: comparing node neighborhoods of different localities and utilizing
annotation data if available. For evaluation, we conduct extensive experiments
on a broad set of settings, including supervised keypoint matching between
images, semi-supervised entity alignment between knowledge graphs, and
unsupervised alignment between protein interaction networks. Applying TFGM on
various GNNs shows promising improvements over baselines. Further ablation
studies demonstrate the effective and efficient training-free property of TFGM.
Our code is available at
https://github.com/acharkq/Training-Free-Graph-Matching.
- Abstract(参考訳): 学習なしでグラフニューラルネットワーク(gnns)ベースのグラフマッチングの性能を向上させるためのフレームワークであるtfgm(training free graph matching)を提案する。
TFGMはGNNのトレーニングにおいて2つの重要な問題を後押しする。
1)高価な注釈による限定的な監督
2)トレーニングの計算コスト。
基本的なフレームワークであるBasicTFGMは、まずグラフマッチング手法の推論段階を採用することで提案される。
解析の結果,BasicTFGMはグラフマッチングの二次代入定式化に対する線形緩和であることがわかった。
これにより、構造互換性の維持と効率的な多項式複雑性が保証される。
経験的に、gnnのアーキテクチャに2種類のマッチングプリエントを手作りすることで、基本tfgmをさらに改善する:異なるローカルのノード近傍の比較と、利用可能であればアノテーションデータを活用する。
評価のために,画像間のキーポイントマッチング,知識グラフ間の半教師付きエンティティアライメント,タンパク質相互作用ネットワーク間の教師なしアライメントなど,幅広い設定について広範な実験を行った。
TFGMをさまざまなGNNに適用することは、ベースラインよりも有望な改善を示している。
さらなるアブレーション研究により、tfgmの効率的かつ効率的なトレーニングフリー特性が示される。
私たちのコードはhttps://github.com/acharkq/training-free-graph-matchingで利用可能です。
関連論文リスト
- Efficient Graph Similarity Computation with Alignment Regularization [7.143879014059894]
グラフ類似性計算(GSC)は、グラフニューラルネットワーク(GNN)を用いた学習に基づく予測タスクである。
適応正規化(AReg)と呼ばれる,シンプルながら強力な正規化技術によって,高品質な学習が達成可能であることを示す。
推論段階では、GNNエンコーダによって学習されたグラフレベル表現は、ARegを再度使用せずに直接類似度スコアを計算するために使用される。
論文 参考訳(メタデータ) (2024-06-21T07:37:28Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - SimTeG: A Frustratingly Simple Approach Improves Textual Graph Learning [131.04781590452308]
テキストグラフ学習におけるフラストレーションに富んだアプローチであるSimTeGを提案する。
まず、下流タスクで予め訓練されたLM上で、教師付きパラメータ効率の微調整(PEFT)を行う。
次に、微調整されたLMの最後の隠れ状態を用いてノード埋め込みを生成する。
論文 参考訳(メタデータ) (2023-08-03T07:00:04Z) - A Class-Aware Representation Refinement Framework for Graph Classification [8.998543739618077]
グラフ分類作業のためのクラス認識表現rEfinement (CARE) フレームワークを提案する。
CAREは単純だが強力なクラス表現を計算し、グラフ表現の学習をより良いクラス分離性へと導くためにそれらを注入する。
9つのベンチマークデータセット上の11のよく知られたGNNバックボーンを用いた実験は、そのGNNよりもCAREの優位性と有効性を検証する。
論文 参考訳(メタデータ) (2022-09-02T10:18:33Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - GPN: A Joint Structural Learning Framework for Graph Neural Networks [36.38529113603987]
グラフ構造と下流タスクを同時に学習するGNNベースの共同学習フレームワークを提案する。
本手法は,この課題を解決するためのGNNベースの二段階最適化フレームワークである。
論文 参考訳(メタデータ) (2022-05-12T09:06:04Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。