論文の概要: Online Adversarial Knowledge Distillation for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2112.13966v2
- Date: Thu, 05 Dec 2024 03:35:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-08 16:57:47.862584
- Title: Online Adversarial Knowledge Distillation for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークのためのオンライン逆知識蒸留法
- Authors: Can Wang, Zhe Wang, Defang Chen, Sheng Zhou, Yan Feng, Chun Chen,
- Abstract要約: 畳み込みニューラルネットワーク(CNN)におけるモデルの一般化を促進するための知識蒸留
本稿では,一群のグラフニューラルネットワークを学習するためのオンライン逆蒸留手法を提案する。
- 参考スコア(独自算出の注目度): 25.902263307225816
- License:
- Abstract: Knowledge distillation, a technique recently gaining popularity for enhancing model generalization in Convolutional Neural Networks (CNNs), operates under the assumption that both teacher and student models are trained on identical data distributions. However, its effect on Graph Neural Networks (GNNs) is less than satisfactory since the graph topology and node attributes are prone to evolve, thereby leading to the issue of distribution shift. In this paper, we tackle this challenge by simultaneously training a group of graph neural networks in an online distillation fashion, where the group knowledge plays a role as a dynamic virtual teacher and the structure changes in graph neural networks are effectively captured. To improve the distillation performance, two types of knowledge are transferred among the students to enhance each other: local knowledge reflecting information in the graph topology and node attributes, and global knowledge reflecting the prediction over classes. We transfer the global knowledge with KL-divergence as the vanilla knowledge distillation does, while exploiting the complicated structure of the local knowledge with an efficient adversarial cyclic learning framework. Extensive experiments verified the effectiveness of our proposed online adversarial distillation approach. The code is published at https://github.com/wangz3066/OnlineDistillGCN.
- Abstract(参考訳): 近年、CNN(Convolutional Neural Networks)におけるモデル一般化の促進に人気が高まっている知識蒸留は、教師モデルと学生モデルの両方が同一のデータ分布で訓練されているという前提の下で運用されている。
しかし、グラフトポロジとノード属性が進化しがちであるため、グラフニューラルネットワーク(GNN)への影響は十分ではないため、分散シフトの問題につながる。
本稿では,グループ知識が動的仮想教師としての役割を担い,グラフニューラルネットワークの構造変化を効果的に捉えるオンライン蒸留方式で,グラフニューラルネットワークのグループを同時に訓練することで,この問題に対処する。
蒸留性能を向上させるために, グラフトポロジとノード属性の情報を反映したローカル知識と, クラス間の予測を反映したグローバル知識の2種類の知識を学生間で伝達し, 相互に強化する。
我々は, 局所的な知識の複雑な構造を, 効率の良い逆循環学習フレームワークで活用しながら, バニラの知識蒸留のようにKL分割でグローバルな知識を伝達する。
大規模実験により, 提案したオンライン逆蒸留法の有効性が検証された。
コードはhttps://github.com/wangz3066/OnlineDistillGCNで公開されている。
関連論文リスト
- Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - Semantic Enhanced Knowledge Graph for Large-Scale Zero-Shot Learning [74.6485604326913]
我々は、専門知識とカテゴリ意味相関の両方を含む新しい意味強化知識グラフを提供する。
知識グラフの情報伝達のために,Residual Graph Convolutional Network (ResGCN)を提案する。
大規模画像Net-21KデータセットとAWA2データセットを用いた実験により,本手法の有効性が示された。
論文 参考訳(メタデータ) (2022-12-26T13:18:36Z) - Geometric Knowledge Distillation: Topology Compression for Graph Neural
Networks [80.8446673089281]
グラフトポロジ情報をグラフニューラルネットワーク(GNN)に符号化することを目的とした知識伝達の新しいパラダイムについて検討する。
本稿では,GNNのアーキテクチャに関する基礎となる多様体の幾何学的性質をカプセル化するためのニューラルヒートカーネル(NHK)を提案する。
基本的な原理的解法は、NHKを幾何学的知識蒸留(Geometric Knowledge Distillation)と呼ばれる教師モデルと学生モデルに合わせることで導かれる。
論文 参考訳(メタデータ) (2022-10-24T08:01:58Z) - Compressing Deep Graph Neural Networks via Adversarial Knowledge
Distillation [41.00398052556643]
本稿では,GraphAKD というグラフモデルのための新しい知識蒸留フレームワークを提案する。
識別器は教師の知識と学生が継承するものを区別し、学生GNNはジェネレータとして働き、識別器を騙す。
その結果、GraphAKDは複雑な教師GNNからコンパクトな学生GNNに正確な知識を伝達できることがわかった。
論文 参考訳(メタデータ) (2022-05-24T00:04:43Z) - Alignahead: Online Cross-Layer Knowledge Extraction on Graph Neural
Networks [6.8080936803807734]
グラフニューラルネットワーク(GNN)上の既存の知識蒸留手法はほとんどオフラインである。
本稿では,この問題を解決するための新しいオンライン知識蒸留フレームワークを提案する。
一方の学生層を別の学生モデルの異なる深さの層に整列させることにより, クロス層蒸留戦略を開発する。
論文 参考訳(メタデータ) (2022-05-05T06:48:13Z) - Investigating Transfer Learning in Graph Neural Networks [2.320417845168326]
グラフニューラルネットワーク(GNN)は、グラフ空間で使用するように拡張することで、ディープラーニングモデルの成功に基づいて構築される。
トランスファーラーニングは、従来のディープラーニング問題に対して非常に成功している。
本研究は,トランスファーラーニングがGNNに有効であることを示し,ソースタスクとGNNの選択が一般化可能な知識を学習する能力にどのように影響するかを説明する。
論文 参考訳(メタデータ) (2022-02-01T20:33:15Z) - ROD: Reception-aware Online Distillation for Sparse Graphs [23.55530524584572]
疎グラフ学習のための新しいレセプション対応オンライン知識蒸留手法 ROD を提案する。
RODのための3つの監視信号: マルチスケールの受信対応グラフ知識、タスクベース監視、豊富な蒸留知識。
我々のアプローチは9つのデータセットと様々なグラフベースのタスクで広く評価されている。
論文 参考訳(メタデータ) (2021-07-25T11:55:47Z) - A Heterogeneous Graph with Factual, Temporal and Logical Knowledge for
Question Answering Over Dynamic Contexts [81.4757750425247]
動的テキスト環境における質問応答について検討する。
構築したグラフ上にグラフニューラルネットワークを構築し,エンドツーエンドでモデルをトレーニングする。
論文 参考訳(メタデータ) (2020-04-25T04:53:54Z) - Distilling Knowledge from Graph Convolutional Networks [146.71503336770886]
既存の知識蒸留法は畳み込みニューラルネットワーク(CNN)に焦点を当てている
本稿では,事前学習したグラフ畳み込みネットワーク(GCN)モデルから知識を抽出する手法を提案する。
提案手法は,GCNモデルに対する最先端の知識蒸留性能を実現する。
論文 参考訳(メタデータ) (2020-03-23T18:23:11Z) - Curriculum By Smoothing [52.08553521577014]
畳み込みニューラルネットワーク(CNN)は、画像分類、検出、セグメンテーションなどのコンピュータビジョンタスクにおいて顕著な性能を示している。
アンチエイリアスフィルタやローパスフィルタを用いてCNNの機能埋め込みを円滑化するエレガントなカリキュラムベースのスキームを提案する。
トレーニング中に特徴マップ内の情報量が増加するにつれて、ネットワークはデータのより優れた表現を徐々に学習することができる。
論文 参考訳(メタデータ) (2020-03-03T07:27:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。