論文の概要: An Analysis of Attentive Walk-Aggregating Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2110.02667v1
- Date: Wed, 6 Oct 2021 11:41:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-07 14:32:49.512082
- Title: An Analysis of Attentive Walk-Aggregating Graph Neural Networks
- Title(参考訳): 歩行集約型グラフニューラルネットワークの解析
- Authors: Mehmet F. Demirel, Shengchao Liu, Siddhant Garg, Yingyu Liang
- Abstract要約: グラフニューラルネットワーク(GNN)は強力な表現力を持っていることが示されている。
AWAREと呼ばれる新しいGNNモデルを提案し、アテンションスキームを用いて、グラフ内のウォークに関する情報を集約する。
- 参考スコア(独自算出の注目度): 34.866935881726256
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have been shown to possess strong representation
power, which can be exploited for downstream prediction tasks on
graph-structured data, such as molecules and social networks. They typically
learn representations by aggregating information from the K-hop neighborhood of
individual vertices or from the enumerated walks in the graph. Prior studies
have demonstrated the effectiveness of incorporating weighting schemes into
GNNs; however, this has been primarily limited to K-hop neighborhood GNNs so
far. In this paper, we aim to extensively analyze the effect of incorporating
weighting schemes into walk-aggregating GNNs. Towards this objective, we
propose a novel GNN model, called AWARE, that aggregates information about the
walks in the graph using attention schemes in a principled way to obtain an
end-to-end supervised learning method for graph-level prediction tasks. We
perform theoretical, empirical, and interpretability analyses of AWARE. Our
theoretical analysis provides the first provable guarantees for weighted GNNs,
demonstrating how the graph information is encoded in the representation, and
how the weighting schemes in AWARE affect the representation and learning
performance. We empirically demonstrate the superiority of AWARE over prior
baselines in the domains of molecular property prediction (61 tasks) and social
networks (4 tasks). Our interpretation study illustrates that AWARE can
successfully learn to capture the important substructures of the input graph.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、強力な表現力を持つことが示されており、分子やソーシャルネットワークなどのグラフ構造化データに対する下流予測タスクに利用することができる。
彼らは通常、個々の頂点のKホップ近傍やグラフ内の列挙されたウォークから情報を集約することで表現を学ぶ。
従来の研究では、重み付け方式をGNNに組み込むことの有効性が示されているが、これは主にKホップ地区GNNに限られている。
本稿では,歩行集約型GNNに重み付け方式を取り入れた効果を広く分析することを目的とする。
本研究の目的は,グラフレベルの予測タスクをエンドツーエンドに教師付き学習する手法を得るために,注目スキームを用いてグラフ内のウォークに関する情報を集約する新しいGNNモデルAWAREを提案することである。
我々はAWAREの理論的、経験的、解釈可能性の分析を行う。
我々の理論解析は,重み付きgnnに対する最初の証明可能な保証を提供し,グラフ情報が表現にどのようにエンコードされるか,重み付けスキームが表現と学習性能にどのように影響するかを示す。
分子特性予測(61タスク)とソーシャルネットワーク(4タスク)の領域において,AWAREが先行ベースラインよりも優れていることを実証的に示す。
本研究は,認識が入力グラフの重要な部分構造をうまく捉えることができることを示す。
関連論文リスト
- Rethinking Propagation for Unsupervised Graph Domain Adaptation [17.443218657417454]
Unlabelled Graph Domain Adaptation (UGDA)は、ラベル付きソースグラフから教師なしターゲットグラフに知識を転送することを目的としている。
本稿では,グラフ領域適応のためのA2GNNというシンプルな手法を提案する。
論文 参考訳(メタデータ) (2024-02-08T13:24:57Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - An Empirical Study of Retrieval-enhanced Graph Neural Networks [48.99347386689936]
グラフニューラルネットワーク(GNN)は、グラフ表現学習に有効なツールである。
本稿では,グラフニューラルネットワークモデルの選択に非依存な GraphRETRIEVAL という検索強化方式を提案する。
我々は13のデータセットに対して包括的な実験を行い、GRAPHRETRIEVALが既存のGNNよりも大幅に改善されていることを観察した。
論文 参考訳(メタデータ) (2022-06-01T09:59:09Z) - Transfer Learning of Graph Neural Networks with Ego-graph Information
Maximization [41.867290324754094]
グラフニューラルネットワーク(GNN)は、様々なアプリケーションにおいて優れたパフォーマンスを実現しているが、大規模グラフのトレーニングには費用がかかる。
本研究では,GNNの伝達学習のための理論的基盤と実用的有用な枠組みを確立する。
論文 参考訳(メタデータ) (2020-09-11T02:31:18Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - GCC: Graph Contrastive Coding for Graph Neural Network Pre-Training [62.73470368851127]
グラフ表現学習は現実世界の問題に対処する強力な手法として登場した。
自己教師付きグラフニューラルネットワーク事前トレーニングフレームワークであるGraph Contrastive Codingを設計する。
3つのグラフ学習タスクと10のグラフデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-06-17T16:18:35Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。