論文の概要: Two-stage Training of Graph Neural Networks for Graph Classification
- arxiv url: http://arxiv.org/abs/2011.05097v4
- Date: Fri, 8 Apr 2022 07:48:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-27 06:57:52.507121
- Title: Two-stage Training of Graph Neural Networks for Graph Classification
- Title(参考訳): グラフ分類のためのグラフニューラルネットワークの2段階学習
- Authors: Manh Tuan Do, Noseong Park, Kijung Shin
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ上の機械学習分野において大きな注目を集めている。
本研究では,三重項損失に基づく二段階学習フレームワークを提案する。
本研究は,各GNNの割り当て能力の精度と利用率を,元の学習法よりも一貫した向上を実証する。
- 参考スコア(独自算出の注目度): 24.11791971161264
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) have received massive attention in the field of
machine learning on graphs. Inspired by the success of neural networks, a line
of research has been conducted to train GNNs to deal with various tasks, such
as node classification, graph classification, and link prediction. In this
work, our task of interest is graph classification. Several GNN models have
been proposed and shown great accuracy in this task. However, the question is
whether usual training methods fully realize the capacity of the GNN models.
In this work, we propose a two-stage training framework based on triplet
loss. In the first stage, GNN is trained to map each graph to a Euclidean-space
vector so that graphs of the same class are close while those of different
classes are mapped far apart. Once graphs are well-separated based on labels, a
classifier is trained to distinguish between different classes. This method is
generic in the sense that it is compatible with any GNN model. By adapting five
GNN models to our method, we demonstrate the consistent improvement in accuracy
and utilization of each GNN's allocated capacity over the original training
method of each model up to 5.4\% points in 12 datasets.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ上の機械学習分野において大きな注目を集めている。
ニューラルネットワークの成功に触発されて、ノード分類、グラフ分類、リンク予測など、さまざまなタスクを扱うために、GNNを訓練するための一連の研究が実施された。
本研究の課題はグラフ分類である。
いくつかのgnnモデルが提案され、このタスクで高い精度を示した。
しかし、通常の訓練方法がgnnモデルの能力を完全に実現できるかどうかが問題である。
本研究では,三重項損失に基づく2段階学習フレームワークを提案する。
最初の段階では、GNNは各グラフをユークリッド空間ベクトルにマッピングするように訓練され、同じクラスのグラフが近く、異なるクラスのグラフは遠くにマッピングされる。
ラベルに基づいてグラフが適切に分離されると、分類器は異なるクラスを区別するように訓練される。
この方法は、任意のGNNモデルと互換性があるという意味では一般的である。
提案手法に5つのGNNモデルを適応させることにより,12個のデータセットにおいて,各モデルの元のトレーニング手法に比べて,各GNNの割り当て能力の精度と利用率の整合性向上を示す。
関連論文リスト
- You do not have to train Graph Neural Networks at all on text-attributed graphs [25.044734252779975]
我々は、同じクラスからのテキストエンコーディングがしばしば線形部分空間に集約されるという観察に乗じて、線形GNNモデルであるTrainlessGNNを紹介した。
実験の結果、私たちのトレインレスモデルは、従来の訓練済みのモデルにマッチするか、超えられることがわかった。
論文 参考訳(メタデータ) (2024-04-17T02:52:11Z) - Classifying Nodes in Graphs without GNNs [50.311528896010785]
本稿では,完全GNNフリーなノード分類手法を提案する。
本手法は, 滑らかさ制約, 擬似ラベル反復, 近傍ラベルヒストグラムの3つの主要成分からなる。
論文 参考訳(メタデータ) (2024-02-08T18:59:30Z) - Distributed Graph Neural Network Training: A Survey [51.77035975191926]
グラフニューラルネットワーク(GNN)は、グラフに基づいてトレーニングされたディープラーニングモデルの一種で、さまざまな領域にうまく適用されている。
GNNの有効性にもかかわらず、GNNが大規模グラフに効率的にスケールすることは依然として困難である。
治療法として、分散コンピューティングは大規模GNNをトレーニングするための有望なソリューションとなる。
論文 参考訳(メタデータ) (2022-11-01T01:57:00Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Meta-Inductive Node Classification across Graphs [6.0471030308057285]
MI-GNNと呼ばれる新しいメタインダクタティブフレームワークを提案し、各グラフにインダクタティブモデルをカスタマイズする。
MI-GNNは誘導モデルを直接学習するものではなく、新しいグラフ上の半監視ノード分類のためのモデルをトレーニングする方法に関する一般的な知識を学ぶ。
5つの実世界のグラフコレクションに関する広範な実験により,提案モデルの有効性が示された。
論文 参考訳(メタデータ) (2021-05-14T09:16:28Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。