論文の概要: KGNN: Harnessing Kernel-based Networks for Semi-supervised Graph
Classification
- arxiv url: http://arxiv.org/abs/2205.10550v1
- Date: Sat, 21 May 2022 10:03:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 15:51:27.386967
- Title: KGNN: Harnessing Kernel-based Networks for Semi-supervised Graph
Classification
- Title(参考訳): KGNN:半教師付きグラフ分類のためのカーネルネットワークのハーネス化
- Authors: Wei Ju, Junwei Yang, Meng Qu, Weiping Song, Jianhao Shen, Ming Zhang
- Abstract要約: 半教師付きグラフ分類のための Kernel-based Graph Neural Network (KGNN) を提案する。
我々は,KGNNが競争ベースラインよりも優れた性能を発揮することを示す。
- 参考スコア(独自算出の注目度): 13.419578861488226
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies semi-supervised graph classification, which is an
important problem with various applications in social network analysis and
bioinformatics. This problem is typically solved by using graph neural networks
(GNNs), which yet rely on a large number of labeled graphs for training and are
unable to leverage unlabeled graphs. We address the limitations by proposing
the Kernel-based Graph Neural Network (KGNN). A KGNN consists of a GNN-based
network as well as a kernel-based network parameterized by a memory network.
The GNN-based network performs classification through learning graph
representations to implicitly capture the similarity between query graphs and
labeled graphs, while the kernel-based network uses graph kernels to explicitly
compare each query graph with all the labeled graphs stored in a memory for
prediction. The two networks are motivated from complementary perspectives, and
thus combing them allows KGNN to use labeled graphs more effectively. We
jointly train the two networks by maximizing their agreement on unlabeled
graphs via posterior regularization, so that the unlabeled graphs serve as a
bridge to let both networks mutually enhance each other. Experiments on a range
of well-known benchmark datasets demonstrate that KGNN achieves impressive
performance over competitive baselines.
- Abstract(参考訳): 本稿では,社会ネットワーク解析やバイオインフォマティクスにおいて重要な課題である半教師付きグラフ分類について述べる。
この問題は一般的に、トレーニングのために多くのラベル付きグラフに依存し、ラベル付きグラフを活用できないグラフニューラルネットワーク(gnns)を使用して解決される。
本稿では,カーネルベースのグラフニューラルネットワーク(KGNN)を提案する。
KGNNはGNNベースのネットワークとメモリネットワークによってパラメータ化されたカーネルベースのネットワークで構成される。
GNNベースのネットワークはグラフ表現の学習を通じて分類を行い、クエリグラフとラベル付きグラフの類似性を暗黙的にキャプチャし、カーネルベースのネットワークはグラフカーネルを使用して各クエリグラフとメモリに格納されたラベル付きグラフを明示的に比較する。
この2つのネットワークは補完的な視点から動機づけられているため、kgnnはラベル付きグラフをより効果的に使用できる。
両ネットワークを相互に拡張するための橋渡しとして,ラベルなしグラフの合意を後続正則化により最大化することにより,両ネットワークを協調的にトレーニングする。
良く知られたベンチマークデータセットの実験は、KGNNが競合するベースラインよりも優れたパフォーマンスを実現していることを示している。
関連論文リスト
- Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - Transferability of Graph Neural Networks using Graphon and Sampling Theories [0.0]
グラフニューラルネットワーク(GNN)は、さまざまなドメインでグラフベースの情報を処理するための強力なツールとなっている。
GNNの望ましい特性は転送可能性であり、トレーニングされたネットワークは、その正確性を再トレーニングすることなく、異なるグラフから情報を交換することができる。
我々は,2層グラファイトニューラルネットワーク(WNN)アーキテクチャを明示することにより,GNNへのグラファイトの適用に寄与する。
論文 参考訳(メタデータ) (2023-07-25T02:11:41Z) - DiffWire: Inductive Graph Rewiring via the Lov\'asz Bound [1.0323063834827415]
グラフニューラルネットワーク(GNN)は、グラフ関連タスクに対処するための競合的な結果を達成することが示されている。
MPNNは、過密、過密、過密に悩まされていると報告されている。
DiffWireは、MPNNでグラフを書き換える新しいフレームワークであり、原則的で、完全に微分可能で、パラメータフリーである。
論文 参考訳(メタデータ) (2022-06-15T08:22:07Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Imbalanced Graph Classification via Graph-of-Graph Neural Networks [16.589373163769853]
グラフニューラルネットワーク(GNN)は、グラフの分類ラベルを識別するグラフ表現の学習において、前例のない成功を収めている。
本稿では,グラフ不均衡問題を軽減する新しいフレームワークであるグラフ・オブ・グラフニューラルネットワーク(G$2$GNN)を提案する。
提案したG$2$GNNは,F1-macroとF1-microのスコアにおいて,多くのベースラインを約5%上回る性能を示した。
論文 参考訳(メタデータ) (2021-12-01T02:25:47Z) - A Unified Lottery Ticket Hypothesis for Graph Neural Networks [82.31087406264437]
本稿では,グラフ隣接行列とモデルの重み付けを同時に行う統一GNNスペーシフィケーション(UGS)フレームワークを提案する。
グラフ宝くじ(GLT)をコアサブデータセットとスパースサブネットワークのペアとして定義することにより、人気のある宝くじチケット仮説を初めてGNNsにさらに一般化します。
論文 参考訳(メタデータ) (2021-02-12T21:52:43Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Graph Neural Networks: Architectures, Stability and Transferability [176.3960927323358]
グラフニューラルネットワーク(GNN)は、グラフでサポートされている信号のための情報処理アーキテクチャである。
これらは、個々の層がグラフ畳み込みフィルタのバンクを含む畳み込みニューラルネットワーク(CNN)の一般化である。
論文 参考訳(メタデータ) (2020-08-04T18:57:36Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。