論文の概要: Graph Attention Networks with LSTM-based Path Reweighting
- arxiv url: http://arxiv.org/abs/2106.10866v1
- Date: Mon, 21 Jun 2021 05:38:26 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-22 15:23:38.631474
- Title: Graph Attention Networks with LSTM-based Path Reweighting
- Title(参考訳): LSTMを用いた経路重み付けによるグラフ注意ネットワーク
- Authors: Jianpeng Chen, Yujing Wang, Ming Zeng, Zongyi Xiang, Yazhou Ren
- Abstract要約: LSTMに基づくパス再重み付け(PR-GAT)を用いたグラフ注意ネットワークという新しいGNNソリューションを設計する。
PR-GATは、自動的に複数のホップ情報を集約し、重要な経路をハイライトし、ノイズを除去する。
7つのデータセットのうち5つで最先端の精度が得られ、他の2つのデータセットで競合する精度が得られます。
- 参考スコア(独自算出の注目度): 7.887647300035234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have been extensively used for mining
graph-structured data with impressive performance. However, traditional GNNs
suffer from over-smoothing, non-robustness and over-fitting problems. To solve
these weaknesses, we design a novel GNN solution, namely Graph Attention
Network with LSTM-based Path Reweighting (PR-GAT). PR-GAT can automatically
aggregate multi-hop information, highlight important paths and filter out
noises. In addition, we utilize random path sampling in PR-GAT for data
augmentation. The augmented data is used for predicting the distribution of
corresponding labels. Finally, we demonstrate that PR-GAT can mitigate the
issues of over-smoothing, non-robustness and overfitting. We achieve
state-of-the-art accuracy on 5 out of 7 datasets and competitive accuracy for
other 2 datasets. The average accuracy of 7 datasets have been improved by
0.5\% than the best SOTA from literature.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,グラフ構造化データのマイニングに広く利用されている。
しかし、従来のGNNは、過度なスムース、非破壊性、過度に適合する問題に悩まされている。
これらの弱点を解決するために,新しいgnnソリューション,すなわちlstmベースのパス重み付け(pr-gat)を用いたグラフアテンションネットワークを設計した。
PR-GATは自動的に複数のホップ情報を集約し、重要な経路をハイライトし、ノイズを除去する。
さらに,PR-GATにおけるランダムパスサンプリングをデータ拡張に活用する。
拡張データは、対応するラベルの分布を予測するために使用される。
最後に,PR-GATが過度なスムース,非ロバスト性,過度な適合の問題を緩和できることを示す。
7つのデータセットのうち5つが最先端の精度であり、他の2つのデータセットが競合する精度である。
7つのデータセットの平均精度は、文献の最高のSOTAよりも0.55%向上している。
関連論文リスト
- Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - Search to Fine-tune Pre-trained Graph Neural Networks for Graph-level
Tasks [22.446655655309854]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクで前例のない成功を収めた。
最近の取り組みでは、大規模未ラベルグラフ上でGNNを事前訓練し、未ラベルグラフからの知識を目標下流タスクに適応させようとしている。
微調整の重要性にもかかわらず、現在のGNNの事前訓練作業は、優れた微調整戦略の設計を無視することが多い。
論文 参考訳(メタデータ) (2023-08-14T06:32:02Z) - Geodesic Graph Neural Network for Efficient Graph Representation
Learning [34.047527874184134]
我々はGeodesic GNN(GDGNN)と呼ばれる効率的なGNNフレームワークを提案する。
ラベル付けなしでノード間の条件付き関係をモデルに注入する。
ジオデシック表現を前提としたGDGNNは、通常のGNNよりもはるかにリッチな構造情報を持つノード、リンク、グラフ表現を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T02:02:35Z) - Neo-GNNs: Neighborhood Overlap-aware Graph Neural Networks for Link
Prediction [23.545059901853815]
グラフニューラルネットワーク(GNN)は,グラフ構造データの学習に広く応用されている。
リンク予測のために隣接重畳された近傍から有用な構造特徴を学習する近傍オーバーラップ対応グラフニューラルネットワーク(Neo-GNN)を提案する。
論文 参考訳(メタデータ) (2022-06-09T01:43:49Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - KerGNNs: Interpretable Graph Neural Networks with Graph Kernels [14.421535610157093]
グラフニューラルネットワーク(GNN)は、下流グラフ関連タスクにおける最先端の手法となっている。
我々は新しいGNNフレームワークKernel Graph Neural Networks(KerGNNs)を提案する。
KerGNNはグラフカーネルをGNNのメッセージパッシングプロセスに統合する。
提案手法は,既存の最先端手法と比較して,競争性能が向上することを示す。
論文 参考訳(メタデータ) (2022-01-03T06:16:30Z) - AutoGraph: Automated Graph Neural Network [45.94642721490744]
本稿では,ディープグラフニューラルネットワーク(GNN)の設計を自動化する手法を提案する。
提案手法では,機能再利用を促進するために,新しいタイプのスキップ接続をGNNs検索空間に追加する。
また、進化的アルゴリズムにより、進化中のGNNの層を増大させ、より深いネットワークを生成することができる。
論文 参考訳(メタデータ) (2020-11-23T09:04:17Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。