論文の概要: AutoGraph: Automated Graph Neural Network
- arxiv url: http://arxiv.org/abs/2011.11288v1
- Date: Mon, 23 Nov 2020 09:04:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-22 01:45:17.936352
- Title: AutoGraph: Automated Graph Neural Network
- Title(参考訳): AutoGraph: グラフニューラルネットワークの自動化
- Authors: Yaoman Li and Irwin King
- Abstract要約: 本稿では,ディープグラフニューラルネットワーク(GNN)の設計を自動化する手法を提案する。
提案手法では,機能再利用を促進するために,新しいタイプのスキップ接続をGNNs検索空間に追加する。
また、進化的アルゴリズムにより、進化中のGNNの層を増大させ、より深いネットワークを生成することができる。
- 参考スコア(独自算出の注目度): 45.94642721490744
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graphs play an important role in many applications. Recently, Graph Neural
Networks (GNNs) have achieved promising results in graph analysis tasks. Some
state-of-the-art GNN models have been proposed, e.g., Graph Convolutional
Networks (GCNs), Graph Attention Networks (GATs), etc. Despite these successes,
most of the GNNs only have shallow structure. This causes the low expressive
power of the GNNs. To fully utilize the power of the deep neural network, some
deep GNNs have been proposed recently. However, the design of deep GNNs
requires significant architecture engineering. In this work, we propose a
method to automate the deep GNNs design. In our proposed method, we add a new
type of skip connection to the GNNs search space to encourage feature reuse and
alleviate the vanishing gradient problem. We also allow our evolutionary
algorithm to increase the layers of GNNs during the evolution to generate
deeper networks. We evaluate our method in the graph node classification task.
The experiments show that the GNNs generated by our method can obtain
state-of-the-art results in Cora, Citeseer, Pubmed and PPI datasets.
- Abstract(参考訳): グラフは多くのアプリケーションで重要な役割を果たす。
近年,グラフニューラルネットワーク (GNN) はグラフ解析タスクにおいて有望な結果を達成している。
最先端のGNNモデルとしては、例えば、Graph Convolutional Networks (GCN)、Graph Attention Networks (GAT)などがある。
これらの成功にもかかわらず、ほとんどのGNNは浅い構造しか持たない。
これによりGNNの表現力は低下する。
ディープニューラルネットワークのパワーをフル活用するために、最近いくつかのディープGNNが提案されている。
しかし、深いGNNの設計には重要なアーキテクチャ工学が必要である。
本研究では,深部GNNの設計を自動化する手法を提案する。
提案手法では,新しいタイプのスキップ接続をGNNs検索空間に追加し,機能再利用を促進し,消滅する勾配問題を緩和する。
また、進化的アルゴリズムは進化中のGNNの層を増やし、より深いネットワークを生成する。
本手法をグラフノード分類タスクで評価する。
実験の結果,提案手法により生成したGNNは,Cora,Citeseer,Pubmed,PPIデータセットの最先端結果を得ることができることがわかった。
関連論文リスト
- Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - Geodesic Graph Neural Network for Efficient Graph Representation
Learning [34.047527874184134]
我々はGeodesic GNN(GDGNN)と呼ばれる効率的なGNNフレームワークを提案する。
ラベル付けなしでノード間の条件付き関係をモデルに注入する。
ジオデシック表現を前提としたGDGNNは、通常のGNNよりもはるかにリッチな構造情報を持つノード、リンク、グラフ表現を生成することができる。
論文 参考訳(メタデータ) (2022-10-06T02:02:35Z) - Addressing Over-Smoothing in Graph Neural Networks via Deep Supervision [13.180922099929765]
ディープグラフニューラルネットワーク(GNN)は、層数が増加すると過度に滑らかになる。
本研究では,すべての層で学習した表現を訓練に利用するDSGNNを提案する。
DSGNNは過度に平滑であり,ノードおよびグラフ特性予測問題における競合ベンチマークよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-25T06:05:55Z) - KerGNNs: Interpretable Graph Neural Networks with Graph Kernels [14.421535610157093]
グラフニューラルネットワーク(GNN)は、下流グラフ関連タスクにおける最先端の手法となっている。
我々は新しいGNNフレームワークKernel Graph Neural Networks(KerGNNs)を提案する。
KerGNNはグラフカーネルをGNNのメッセージパッシングプロセスに統合する。
提案手法は,既存の最先端手法と比較して,競争性能が向上することを示す。
論文 参考訳(メタデータ) (2022-01-03T06:16:30Z) - Network In Graph Neural Network [9.951298152023691]
本稿では,任意のGNNモデルに対して,モデルをより深くすることでモデル容量を増大させるモデルに依存しない手法を提案する。
GNNレイヤの追加や拡張の代わりに、NGNNは、各GNNレイヤに非線形フィードフォワードニューラルネットワーク層を挿入することで、GNNモデルを深めている。
論文 参考訳(メタデータ) (2021-11-23T03:58:56Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Graph Neural Networks: Architectures, Stability and Transferability [176.3960927323358]
グラフニューラルネットワーク(GNN)は、グラフでサポートされている信号のための情報処理アーキテクチャである。
これらは、個々の層がグラフ畳み込みフィルタのバンクを含む畳み込みニューラルネットワーク(CNN)の一般化である。
論文 参考訳(メタデータ) (2020-08-04T18:57:36Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。