論文の概要: GAIN: Graph Attention & Interaction Network for Inductive
Semi-Supervised Learning over Large-scale Graphs
- arxiv url: http://arxiv.org/abs/2011.01393v1
- Date: Tue, 3 Nov 2020 00:20:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 04:28:11.439148
- Title: GAIN: Graph Attention & Interaction Network for Inductive
Semi-Supervised Learning over Large-scale Graphs
- Title(参考訳): GAIN:大規模グラフを用いたインダクティブ半教師付き学習のためのグラフアテンションとインタラクションネットワーク
- Authors: Yunpeng Weng and Xu Chen and Liang Chen and Wei Liu
- Abstract要約: グラフニューラルネットワーク(GNN)は、推薦、ノード分類、リンク予測など、さまざまな機械学習タスクにおいて最先端のパフォーマンスを実現している。
既存のGNNモデルの多くは、隣接するノード情報を集約するために単一のタイプのアグリゲータを利用している。
本稿では,グラフ上の帰納学習のための新しいグラフニューラルネットワークアーキテクチャであるグラフ注意と相互作用ネットワーク(GAIN)を提案する。
- 参考スコア(独自算出の注目度): 18.23435958000212
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have led to state-of-the-art performance on a
variety of machine learning tasks such as recommendation, node classification
and link prediction. Graph neural network models generate node embeddings by
merging nodes features with the aggregated neighboring nodes information. Most
existing GNN models exploit a single type of aggregator (e.g., mean-pooling) to
aggregate neighboring nodes information, and then add or concatenate the output
of aggregator to the current representation vector of the center node. However,
using only a single type of aggregator is difficult to capture the different
aspects of neighboring information and the simple addition or concatenation
update methods limit the expressive capability of GNNs. Not only that, existing
supervised or semi-supervised GNN models are trained based on the loss function
of the node label, which leads to the neglect of graph structure information.
In this paper, we propose a novel graph neural network architecture, Graph
Attention \& Interaction Network (GAIN), for inductive learning on graphs.
Unlike the previous GNN models that only utilize a single type of aggregation
method, we use multiple types of aggregators to gather neighboring information
in different aspects and integrate the outputs of these aggregators through the
aggregator-level attention mechanism. Furthermore, we design a graph
regularized loss to better capture the topological relationship of the nodes in
the graph. Additionally, we first present the concept of graph feature
interaction and propose a vector-wise explicit feature interaction mechanism to
update the node embeddings. We conduct comprehensive experiments on two
node-classification benchmarks and a real-world financial news dataset. The
experiments demonstrate our GAIN model outperforms current state-of-the-art
performances on all the tasks.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、推薦、ノード分類、リンク予測など、さまざまな機械学習タスクにおいて最先端のパフォーマンスを実現している。
グラフニューラルネットワークモデルは、集約された隣接ノード情報とノード機能をマージすることでノード埋め込みを生成する。
既存のGNNモデルは、一つのタイプのアグリゲータ(平均プーリングなど)を利用して、隣接するノード情報を集約し、アグリゲータの出力を中心ノードの現在の表現ベクトルに追加または連結する。
しかし, 一つのアグリゲータのみを用いることで, 隣接する情報の異なる側面を捉えることは困難であり, 単純な付加・連結更新手法はGNNの表現能力を制限している。
それだけでなく、ノードラベルの損失関数に基づいて既存の教師付きまたは半教師付きGNNモデルを訓練し、グラフ構造情報を無視する。
本稿では,グラフ上の帰納学習のための新しいグラフニューラルネットワークアーキテクチャであるグラフ注意’&インタラクションネットワーク(GAIN)を提案する。
単一種類のアグリゲータのみを使用する従来のgnnモデルとは異なり、複数のタイプのアグリゲータを使用して、異なる側面の隣接情報を収集し、アグリゲータレベルのアグリゲータの出力を統合する。
さらに、グラフ内のノードのトポロジ的関係をよりよく捉えるために、グラフ正規化損失を設計する。
さらに,まずグラフ特徴相互作用の概念を提示し,ノード埋め込みを更新するためのベクトル的明示的な特徴相互作用機構を提案する。
2つのノード分類ベンチマークと実世界の金融ニュースデータセットに関する包括的な実験を行う。
実験では、GAINモデルがすべてのタスクで現在の最先端のパフォーマンスより優れています。
関連論文リスト
- DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Seq-HGNN: Learning Sequential Node Representation on Heterogeneous Graph [57.2953563124339]
本稿では,シーケンシャルノード表現,すなわちSeq-HGNNを用いた新しい異種グラフニューラルネットワークを提案する。
Heterogeneous Graph Benchmark (HGB) と Open Graph Benchmark (OGB) の4つの広く使われているデータセットについて広範な実験を行った。
論文 参考訳(メタデータ) (2023-05-18T07:27:18Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - Graph Ordering Attention Networks [22.468776559433614]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに関わる多くの問題でうまく使われている。
近隣ノード間のインタラクションをキャプチャする新しいGNNコンポーネントであるグラフ順序付け注意層(GOAT)を導入する。
GOATレイヤは、複雑な情報をキャプチャするグラフメトリクスのモデリングにおけるパフォーマンスの向上を示す。
論文 参考訳(メタデータ) (2022-04-11T18:13:19Z) - Feature Correlation Aggregation: on the Path to Better Graph Neural
Networks [37.79964911718766]
グラフニューラルネットワーク(GNN)が導入される以前、不規則なデータ、特にグラフのモデリングと解析は、ディープラーニングのアキレスのヒールであると考えられていた。
本稿では,GNNのコア操作に対して,極めて単純かつ無作為な修正を施した中央ノード置換変分関数を提案する。
モデルの具体的な性能向上は、モデルがより少ないパラメータを使用しながら、有意なマージンで過去の最先端結果を上回った場合に観察される。
論文 参考訳(メタデータ) (2021-09-20T05:04:26Z) - Explicit Pairwise Factorized Graph Neural Network for Semi-Supervised
Node Classification [59.06717774425588]
本稿では,グラフ全体を部分的に観測されたマルコフ確率場としてモデル化するEPFGNN(Explicit Pairwise Factorized Graph Neural Network)を提案する。
出力-出力関係をモデル化するための明示的なペアワイズ要素を含み、入力-出力関係をモデル化するためにGNNバックボーンを使用する。
本研究では,グラフ上での半教師付きノード分類の性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2021-07-27T19:47:53Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Multi-grained Semantics-aware Graph Neural Networks [13.720544777078642]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力な技術である。
本研究では,ノードとグラフ表現を対話的に学習する統合モデルAdamGNNを提案する。
14の実世界のグラフデータセットに対する実験により、AdamGNNはノードとグラフの両方のタスクにおいて17の競合するモデルを大幅に上回っていることが示された。
論文 参考訳(メタデータ) (2020-10-01T07:52:06Z) - Hierarchical Message-Passing Graph Neural Networks [12.207978823927386]
本稿では,新しい階層型メッセージパッシンググラフニューラルネットワークフレームワークを提案する。
鍵となるアイデアは、フラットグラフ内のすべてのノードをマルチレベルなスーパーグラフに再編成する階層構造を生成することである。
階層型コミュニティ対応グラフニューラルネットワーク(HC-GNN)と呼ばれる,このフレームワークを実装した最初のモデルを提案する。
論文 参考訳(メタデータ) (2020-09-08T13:11:07Z) - CAGNN: Cluster-Aware Graph Neural Networks for Unsupervised Graph
Representation Learning [19.432449825536423]
教師なしグラフ表現学習は、教師なしの低次元ノード埋め込みを学習することを目的としている。
本稿では、自己教師付き手法を用いた教師なしグラフ表現学習のための新しいクラスタ対応グラフニューラルネットワーク(CAGNN)モデルを提案する。
論文 参考訳(メタデータ) (2020-09-03T13:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。