論文の概要: Unveiling the Unseen Potential of Graph Learning through MLPs: Effective
Graph Learners Using Propagation-Embracing MLPs
- arxiv url: http://arxiv.org/abs/2311.11759v1
- Date: Mon, 20 Nov 2023 13:39:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-21 18:53:47.536862
- Title: Unveiling the Unseen Potential of Graph Learning through MLPs: Effective
Graph Learners Using Propagation-Embracing MLPs
- Title(参考訳): MLPによるグラフ学習の未知の可能性:プロパゲーション・エンブラシングを用いた効果的なグラフ学習者
- Authors: Yong-Min Shin, Won-Yong Shin
- Abstract要約: 教師ニューラルネットワーク(GNN)による知識蒸留による学生の訓練
変換$T$と伝搬$Pi$を分離するGNNにインスパイアされた私たちは、KDプロセスを再構成して、学生が明示的に$T$と$Pi$を学習できるようにします。
本稿では,KD 以前の教師 GNN の出力を伝搬する Propagate & Distill (P&D) を提案し,逆伝播 $Pi-1$ の近似過程として解釈できる。
- 参考スコア(独自算出の注目度): 9.731314045194495
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies attempted to utilize multilayer perceptrons (MLPs) to solve
semi-supervised node classification on graphs, by training a student MLP by
knowledge distillation (KD) from a teacher graph neural network (GNN). While
previous studies have focused mostly on training the student MLP by matching
the output probability distributions between the teacher and student models
during KD, it has not been systematically studied how to inject the structural
information in an explicit and interpretable manner. Inspired by GNNs that
separate feature transformation $T$ and propagation $\Pi$, we re-frame the KD
process as enabling the student MLP to explicitly learn both $T$ and $\Pi$.
Although this can be achieved by applying the inverse propagation $\Pi^{-1}$
before distillation from the teacher GNN, it still comes with a high
computational cost from large matrix multiplications during training. To solve
this problem, we propose Propagate & Distill (P&D), which propagates the output
of the teacher GNN before KD and can be interpreted as an approximate process
of the inverse propagation $\Pi^{-1}$. Through comprehensive evaluations using
real-world benchmark datasets, we demonstrate the effectiveness of P&D by
showing further performance boost of the student MLP.
- Abstract(参考訳): 近年,教師グラフニューラルネットワーク(gnn)による知識蒸留(kd)による学生mlpの学習により,グラフ上の半教師ノード分類の解法として多層パーセプトロン(mlps)を用いた研究が行われている。
これまでの研究では,教師と生徒モデルの出力確率分布をkd中に一致させることで学生mlpの訓練に重点を置いているが,構造情報を明示的かつ解釈可能な方法で注入する方法は体系的に研究されていない。
機能変換を分離したgnnにインスパイアされた $t$ と propagation $\pi$ は、学生 mlp が $t$ と $\pi$ の両方を明示的に学習できるように kd プロセスを再構築します。
これは教師GNNから蒸留される前に逆伝播$\Pi^{-1}$を適用することで実現できるが、それでもトレーニング中に大きな行列乗算の計算コストが高い。
この問題を解決するために,KD 以前の教師 GNN の出力を伝搬し,逆伝播 $\Pi^{-1}$ の近似過程として解釈できる Propagate & Distill (P&D) を提案する。
実世界のベンチマークデータセットを用いた総合的な評価を通じて,学生MLPの性能向上を示すことにより,P&Dの有効性を実証する。
関連論文リスト
- Teach Harder, Learn Poorer: Rethinking Hard Sample Distillation for GNN-to-MLP Knowledge Distillation [56.912354708167534]
グラフニューラルネットワーク(GNN)と軽量マルチ層パーセプトロン(MLP)
GNNto-MLP Knowledge Distillation (KD)は、よく訓練された教師であるGNNの知識を学生に蒸留することを提案する。
本稿では,単純かつ効果的なGNN-to-MLP蒸留(HGMD)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-20T06:13:00Z) - A Teacher-Free Graph Knowledge Distillation Framework with Dual
Self-Distillation [58.813991312803246]
本稿では,教師モデルやGNNを必要としない教師自由グラフ自己蒸留(TGS)フレームワークを提案する。
TGSは、トレーニングにおけるグラフトポロジの認識の利点を享受しているが、推論におけるデータ依存から解放されている。
論文 参考訳(メタデータ) (2024-03-06T05:52:13Z) - Propagate & Distill: Towards Effective Graph Learners Using
Propagation-Embracing MLPs [9.731314045194495]
教師グラフニューラルネットワーク(GNN)による知識蒸留による学生の訓練
機能変換を$T$から分離したGNNにインスパイアされた私たちは、蒸留プロセスを再構成して、学生に$T$と$Pi$の両方を学ぶようにしました。
本稿では, 蒸留前の教師の出力を伝搬するプロパゲート・アンド・ディスティル (P&D) を提案し, 逆伝播の近似過程として解釈できる。
論文 参考訳(メタデータ) (2023-11-29T16:26:24Z) - VQGraph: Rethinking Graph Representation Space for Bridging GNNs and
MLPs [97.63412451659826]
VQGraphは、各ノードのローカルサブストラクチャを離散コードとしてエンコードできるグラフデータ上の構造認識トークン化器を学習する。
VQGraphは、GNN-to-MLP蒸留におけるトランスダクティブおよびインダクティブの両方で、新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-08-04T02:58:08Z) - Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - Edge-free but Structure-aware: Prototype-Guided Knowledge Distillation
from GNNs to MLPs [22.541655587228203]
グラフタスク上での低遅延多層パーセプトロン(MLP)への高精度グラフニューラルネットワーク(GNN)の蒸留はホットな研究トピックとなっている。
グラフエッジ(エッジフリー)を必要としないが構造認識を学習するプロトタイプガイド型知識蒸留(PGKD)法を提案する。
論文 参考訳(メタデータ) (2023-03-24T02:28:55Z) - SA-MLP: Distilling Graph Knowledge from GNNs into Structure-Aware MLP [46.52398427166938]
予測加速の1つの有望な方向は、GNNをメッセージパスなしの学生多層パーセプトロンに蒸留することである。
本稿では,構造化情報のための学習能力を高めるための構造混合知識戦略を提案する。
我々のSA-MLPは、より高速な推論支援を維持しながら、教師のGNNを一貫して上回ります。
論文 参考訳(メタデータ) (2022-10-18T05:55:36Z) - MLPInit: Embarrassingly Simple GNN Training Acceleration with MLP
Initialization [51.76758674012744]
大きなグラフ上でグラフニューラルネットワーク(GNN)をトレーニングするのは複雑で、非常に時間がかかる。
我々は、PeerInitと呼ばれるGNNトレーニングアクセラレーションに対して、恥ずかしく単純だが非常に効果的な方法を提案する。
論文 参考訳(メタデータ) (2022-09-30T21:33:51Z) - Bootstrapped Representation Learning on Graphs [37.62546075583656]
グラフニューラルネットワーク(GNN)の最先端の自己教師型学習手法は,コントラスト学習に基づいている。
BYOLにインスパイアされたBootstrapped Graph Latents, BGRLは,自己監視型グラフ表現手法である。
BGRLは、いくつかの確立されたベンチマークデータセットの以前の監視されていない最新の結果を上回るか、一致させます。
論文 参考訳(メタデータ) (2021-02-12T13:36:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。