論文の概要: Propagate & Distill: Towards Effective Graph Learners Using
Propagation-Embracing MLPs
- arxiv url: http://arxiv.org/abs/2311.17781v1
- Date: Wed, 29 Nov 2023 16:26:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-30 20:46:41.734178
- Title: Propagate & Distill: Towards Effective Graph Learners Using
Propagation-Embracing MLPs
- Title(参考訳): Propagate & Distill: Propagate-Embracing MLPを用いた効果的なグラフ学習者を目指して
- Authors: Yong-Min Shin, Won-Yong Shin
- Abstract要約: 教師グラフニューラルネットワーク(GNN)による知識蒸留による学生の訓練
機能変換を$T$から分離したGNNにインスパイアされた私たちは、蒸留プロセスを再構成して、学生に$T$と$Pi$の両方を学ぶようにしました。
本稿では, 蒸留前の教師の出力を伝搬するプロパゲート・アンド・ディスティル (P&D) を提案し, 逆伝播の近似過程として解釈できる。
- 参考スコア(独自算出の注目度): 9.731314045194495
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent studies attempted to utilize multilayer perceptrons (MLPs) to solve
semisupervised node classification on graphs, by training a student MLP by
knowledge distillation from a teacher graph neural network (GNN). While
previous studies have focused mostly on training the student MLP by matching
the output probability distributions between the teacher and student models
during distillation, it has not been systematically studied how to inject the
structural information in an explicit and interpretable manner. Inspired by
GNNs that separate feature transformation $T$ and propagation $\Pi$, we
re-frame the distillation process as making the student MLP learn both $T$ and
$\Pi$. Although this can be achieved by applying the inverse propagation
$\Pi^{-1}$ before distillation from the teacher, it still comes with a high
computational cost from large matrix multiplications during training. To solve
this problem, we propose Propagate & Distill (P&D), which propagates the output
of the teacher before distillation, which can be interpreted as an approximate
process of the inverse propagation. We demonstrate that P&D can readily improve
the performance of the student MLP.
- Abstract(参考訳): 近年,教師グラフニューラルネットワーク(gnn)による知識蒸留による学生mlpの学習により,グラフ上の半教師ノード分類の解法として多層パーセプトロン(mlps)を用いた研究が行われている。
従来の研究では, 蒸留中の教師と生徒モデルの出力確率分布を一致させることで, 学生mlpの訓練に重点を置いてきたが, 構造情報を明示的かつ解釈可能な方法で注入する方法は体系的に研究されていない。
機能変換の$T$と伝搬の$\Pi$を分離したGNNにインスパイアされた私たちは、蒸留プロセスを再構成して、学生MLPが$T$と$\Pi$の両方を学ぶようにしました。
これは、教師が蒸留する前に逆伝播$\pi^{-1}$を適用することで達成できるが、訓練中の大きな行列の乗算による計算コストは高い。
この問題を解決するために, 蒸留前の教師の出力を伝搬するプロパゲート・アンド・ディスティル (P&D) を提案し, 逆伝播の近似過程として解釈できる。
我々は,P&Dが学生MLPの性能を向上できることを実証した。
関連論文リスト
- Unveiling the Unseen Potential of Graph Learning through MLPs: Effective
Graph Learners Using Propagation-Embracing MLPs [9.731314045194495]
教師ニューラルネットワーク(GNN)による知識蒸留による学生の訓練
変換$T$と伝搬$Pi$を分離するGNNにインスパイアされた私たちは、KDプロセスを再構成して、学生が明示的に$T$と$Pi$を学習できるようにします。
本稿では,KD 以前の教師 GNN の出力を伝搬する Propagate & Distill (P&D) を提案し,逆伝播 $Pi-1$ の近似過程として解釈できる。
論文 参考訳(メタデータ) (2023-11-20T13:39:19Z) - Extracting Low-/High- Frequency Knowledge from Graph Neural Networks and
Injecting it into MLPs: An Effective GNN-to-MLP Distillation Framework [36.160251860788314]
完全周波数GNN-to-MLP (FFG2M) 蒸留フレームワークを提案する。
我々は、GNNが学んだ知識をスペクトル領域の低周波成分と高周波成分に分解する。
既存のGNN-to-MLP蒸留における入水可能性について検討する。
論文 参考訳(メタデータ) (2023-05-18T06:57:06Z) - Robust Knowledge Distillation from RNN-T Models With Noisy Training
Labels Using Full-Sum Loss [32.816725317261934]
本研究は、知識蒸留(KD)を研究し、リカレントニューラルネットワークトランスデューサ(RNN-T)モデルに対する制約に対処する。
本研究は,RNN-Tモデルにおいて,系列レベルのKD,フルサム蒸留法が他の蒸留法よりも優れていることを示す。
また,教師の系列識別知識を蒸留し,WERのさらなる改善につながるフルサム蒸留の変種を提案する。
論文 参考訳(メタデータ) (2023-03-10T14:46:23Z) - HomoDistil: Homotopic Task-Agnostic Distillation of Pre-trained
Transformers [49.79405257763856]
本稿では,タスク非依存蒸留に焦点をあてる。
これは、計算コストとメモリフットプリントを小さくして、様々なタスクで簡単に微調整できるコンパクトな事前訓練モデルを生成する。
本稿では, 反復刈り込みによる新規なタスク非依存蒸留法であるHomotopic Distillation (HomoDistil)を提案する。
論文 参考訳(メタデータ) (2023-02-19T17:37:24Z) - Unbiased Knowledge Distillation for Recommendation [66.82575287129728]
知識蒸留(KD)は推論遅延を低減するためにレコメンダシステム(RS)に応用されている。
従来のソリューションは、まずトレーニングデータから完全な教師モデルを訓練し、その後、その知識を変換して、コンパクトな学生モデルの学習を監督する。
このような標準的な蒸留パラダイムは深刻なバイアス問題を引き起こし、蒸留後に人気アイテムがより強く推奨されることになる。
論文 参考訳(メタデータ) (2022-11-27T05:14:03Z) - Pixel-Wise Contrastive Distillation [3.274323556083613]
本稿では,高密度予測タスクに相応しい画素レベルの自己監督蒸留フレームワークを提案する。
提案手法は, 学生と教師の出力特徴マップから対応する画素を抽出し, 知識を抽出する。
論文 参考訳(メタデータ) (2022-11-01T02:00:32Z) - Teacher's pet: understanding and mitigating biases in distillation [61.44867470297283]
いくつかの研究により、蒸留によって学生の全体的なパフォーマンスが著しく向上することが示されている。
しかし、これらのゲインはすべてのデータサブグループに均一なのでしょうか?
蒸留が特定の部分群の性能に悪影響を及ぼすことを示す。
信頼性の低いサブグループに対して,教師の影響を和らげる手法を提案する。
論文 参考訳(メタデータ) (2021-06-19T13:06:25Z) - Greedy Layer Pruning: Decreasing Inference Time of Transformer Models [0.0]
教師なし事前学習後の微調整変圧器モデルは、多くの異なるNLPタスクにおいて非常に高い性能に達する。
1つの解決策は知識蒸留を使うことであり、これは大きな教師モデルからより小さな学生モデルに情報を転送することでこの問題を解決する。
もう1つの解決策は、トランスモデルの高い圧縮速度に達する層ワイドプルーニング法を使用することである。
本稿では, 層状プルーニングの最先端化のために, GLP (greedy layer pruning) を導入している。
論文 参考訳(メタデータ) (2021-05-31T09:52:41Z) - Deep Semi-supervised Knowledge Distillation for Overlapping Cervical
Cell Instance Segmentation [54.49894381464853]
本稿では, ラベル付きデータとラベルなしデータの両方を, 知識蒸留による精度向上に活用することを提案する。
摂動に敏感なサンプルマイニングを用いたマスク誘導型平均教師フレームワークを提案する。
実験の結果,ラベル付きデータのみから学習した教師付き手法と比較して,提案手法は性能を著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-21T13:27:09Z) - Distilling Object Detectors with Task Adaptive Regularization [97.52935611385179]
現在の最先端のオブジェクト検出器は高い計算コストを犠牲にしており、ローエンドデバイスへのデプロイが困難である。
より大規模な教師モデルから知識を伝達することで、より小さな学生ネットワークを訓練することを目的とした知識蒸留は、モデル小型化のための有望な解決策の1つである。
論文 参考訳(メタデータ) (2020-06-23T15:58:22Z) - Knowledge distillation via adaptive instance normalization [52.91164959767517]
本稿では,教師から生徒への特徴統計の伝達に基づく新しい知識蒸留法を提案する。
本手法は,教師に類似する生徒の平均と分散を強制する標準的な方法を超えている。
以上の結果から, 蒸留法は他の蒸留法よりも高い性能を示した。
論文 参考訳(メタデータ) (2020-03-09T17:50:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。