論文の概要: Customizing Graph Neural Networks using Path Reweighting
- arxiv url: http://arxiv.org/abs/2106.10866v3
- Date: Tue, 12 Mar 2024 08:14:31 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 02:55:44.198715
- Title: Customizing Graph Neural Networks using Path Reweighting
- Title(参考訳): パス重み付けを用いたグラフニューラルネットワークのカスタマイズ
- Authors: Jianpeng Chen and Yujing Wang and Ming Zeng and Zongyi Xiang and Bitan
Hou and Yunhai Tong and Ole J. Mengshoel and Yazhou Ren
- Abstract要約: 経路再重み付きカスタムグラフニューラルネットワーク(略してCustomGNN)という新しいGNNソリューションを提案する。
具体的には、提案したCustomGNNは、特定の下流タスクのハイレベルなセマンティクスを自動的に学習し、意味論的に関連するパスをハイライトし、グラフ内のタスク非関連ノイズをフィルタリングする。
ノード分類タスクの実験では、CustomGNNは3つの標準グラフデータセットと4つの大きなグラフデータセットに対して最先端の精度を達成する。
- 参考スコア(独自算出の注目度): 23.698877985105312
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have been extensively used for mining
graph-structured data with impressive performance. However, because these
traditional GNNs do not distinguish among various downstream tasks, embeddings
embedded by them are not always effective. Intuitively, paths in a graph imply
different semantics for different downstream tasks. Inspired by this, we design
a novel GNN solution, namely Customized Graph Neural Network with Path
Reweighting (CustomGNN for short). Specifically, the proposed CustomGNN can
automatically learn the high-level semantics for specific downstream tasks to
highlight semantically relevant paths as well to filter out task-irrelevant
noises in a graph. Furthermore, we empirically analyze the semantics learned by
CustomGNN and demonstrate its ability to avoid the three inherent problems in
traditional GNNs, i.e., over-smoothing, poor robustness, and overfitting. In
experiments with the node classification task, CustomGNN achieves
state-of-the-art accuracies on three standard graph datasets and four large
graph datasets. The source code of the proposed CustomGNN is available at
\url{https://github.com/cjpcool/CustomGNN}.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,グラフ構造化データのマイニングに広く利用されている。
しかし、これらの従来のGNNは様々な下流タスクを区別しないため、組み込まれた埋め込みは必ずしも効果的ではない。
直感的には、グラフ内のパスは異なる下流タスクに対する異なる意味論を暗示する。
そこで我々は,経路再重み付きカスタムグラフニューラルネットワーク(略してCustomGNN)という,新しいGNNソリューションを設計した。
具体的には、提案したCustomGNNは、特定の下流タスクのハイレベルなセマンティクスを自動的に学習し、意味論的に関連するパスを強調し、グラフ内のタスク非関連ノイズをフィルタリングする。
さらに、CustomGNNが学んだセマンティクスを実証的に分析し、従来のGNNの3つの固有の問題、すなわち過度なスムーシング、貧弱な堅牢性、過度な適合を避ける能力を示す。
ノード分類タスクの実験では、CustomGNNは3つの標準グラフデータセットと4つの大きなグラフデータセットに対して最先端の精度を達成する。
提案されたCustomGNNのソースコードは、 \url{https://github.com/cjpcool/CustomGNN}で入手できる。
関連論文リスト
- Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - Search to Fine-tune Pre-trained Graph Neural Networks for Graph-level
Tasks [22.446655655309854]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクで前例のない成功を収めた。
最近の取り組みでは、大規模未ラベルグラフ上でGNNを事前訓練し、未ラベルグラフからの知識を目標下流タスクに適応させようとしている。
微調整の重要性にもかかわらず、現在のGNNの事前訓練作業は、優れた微調整戦略の設計を無視することが多い。
論文 参考訳(メタデータ) (2023-08-14T06:32:02Z) - Geodesic Graph Neural Network for Efficient Graph Representation
Learning [34.047527874184134]
我々はGeodesic GNN(GDGNN)と呼ばれる効率的なGNNフレームワークを提案する。
ラベル付けなしでノード間の条件付き関係をモデルに注入する。
ジオデシック表現を前提としたGDGNNは、通常のGNNよりもはるかにリッチな構造情報を持つノード、リンク、グラフ表現を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T02:02:35Z) - Neo-GNNs: Neighborhood Overlap-aware Graph Neural Networks for Link
Prediction [23.545059901853815]
グラフニューラルネットワーク(GNN)は,グラフ構造データの学習に広く応用されている。
リンク予測のために隣接重畳された近傍から有用な構造特徴を学習する近傍オーバーラップ対応グラフニューラルネットワーク(Neo-GNN)を提案する。
論文 参考訳(メタデータ) (2022-06-09T01:43:49Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - KerGNNs: Interpretable Graph Neural Networks with Graph Kernels [14.421535610157093]
グラフニューラルネットワーク(GNN)は、下流グラフ関連タスクにおける最先端の手法となっている。
我々は新しいGNNフレームワークKernel Graph Neural Networks(KerGNNs)を提案する。
KerGNNはグラフカーネルをGNNのメッセージパッシングプロセスに統合する。
提案手法は,既存の最先端手法と比較して,競争性能が向上することを示す。
論文 参考訳(メタデータ) (2022-01-03T06:16:30Z) - AutoGraph: Automated Graph Neural Network [45.94642721490744]
本稿では,ディープグラフニューラルネットワーク(GNN)の設計を自動化する手法を提案する。
提案手法では,機能再利用を促進するために,新しいタイプのスキップ接続をGNNs検索空間に追加する。
また、進化的アルゴリズムにより、進化中のGNNの層を増大させ、より深いネットワークを生成することができる。
論文 参考訳(メタデータ) (2020-11-23T09:04:17Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。