論文の概要: Random Features Strengthen Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2002.03155v3
- Date: Mon, 18 Jan 2021 08:52:14 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 22:19:37.049103
- Title: Random Features Strengthen Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークを強化したランダム特徴
- Authors: Ryoma Sato, Makoto Yamada, Hisashi Kashima
- Abstract要約: グラフニューラルネットワーク(GNN)は、さまざまなグラフ学習タスクのための強力な機械学習モデルである。
本稿では,各ノードにランダムな特徴を加えるだけで,GNNが強力になることを示す。
本稿では, グラフ畳み込みネットワーク (GCN) やグラフ同型ネットワーク (GIN) など, 通常のGNNでは解けない様々な問題を, ランダムな特徴の追加によりGNNが解決できることを示す。
- 参考スコア(独自算出の注目度): 40.60905158071766
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) are powerful machine learning models for various
graph learning tasks. Recently, the limitations of the expressive power of
various GNN models have been revealed. For example, GNNs cannot distinguish
some non-isomorphic graphs and they cannot learn efficient graph algorithms. In
this paper, we demonstrate that GNNs become powerful just by adding a random
feature to each node. We prove that the random features enable GNNs to learn
almost optimal polynomial-time approximation algorithms for the minimum
dominating set problem and maximum matching problem in terms of approximation
ratios. The main advantage of our method is that it can be combined with
off-the-shelf GNN models with slight modifications. Through experiments, we
show that the addition of random features enables GNNs to solve various
problems that normal GNNs, including the graph convolutional networks (GCNs)
and graph isomorphism networks (GINs), cannot solve.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、さまざまなグラフ学習タスクのための強力な機械学習モデルである。
近年,様々なGNNモデルの表現力の限界が明らかにされている。
例えば、gnnは非同型グラフを区別できず、効率的なグラフアルゴリズムを学べない。
本稿では,各ノードにランダムな特徴を加えるだけで,GNNが強力になることを示す。
このランダムな特徴により、GNNは最小支配セット問題と最大マッチング問題に対して近似比でほぼ最適な多項式時間近似アルゴリズムを学習できることを示す。
本手法の主な利点は,市販のGNNモデルと若干の修正を加えて組み合わせることができる点である。
実験により、ランダムな特徴の追加により、グラフ畳み込みネットワーク(GCN)やグラフ同型ネットワーク(GIN)など、通常のGNNが解決できない様々な問題を解決することができることを示す。
関連論文リスト
- GNN-Ensemble: Towards Random Decision Graph Neural Networks [3.7620848582312405]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに広く応用されている。
GNNは、大量のテストデータに基づいて推論を行うために、限られた量のトレーニングデータから潜伏パターンを学習する必要がある。
本稿では、GNNのアンサンブル学習を一歩前進させ、精度、堅牢性、敵攻撃を改善した。
論文 参考訳(メタデータ) (2023-03-20T18:24:01Z) - Training Graph Neural Networks on Growing Stochastic Graphs [114.75710379125412]
グラフニューラルネットワーク(GNN)は、ネットワーク化されたデータの意味のあるパターンを活用するために、グラフ畳み込みに依存している。
我々は,成長するグラフ列の極限オブジェクトであるグラフオンを利用して,非常に大きなグラフ上のGNNを学習することを提案する。
論文 参考訳(メタデータ) (2022-10-27T16:00:45Z) - KerGNNs: Interpretable Graph Neural Networks with Graph Kernels [14.421535610157093]
グラフニューラルネットワーク(GNN)は、下流グラフ関連タスクにおける最先端の手法となっている。
我々は新しいGNNフレームワークKernel Graph Neural Networks(KerGNNs)を提案する。
KerGNNはグラフカーネルをGNNのメッセージパッシングプロセスに統合する。
提案手法は,既存の最先端手法と比較して,競争性能が向上することを示す。
論文 参考訳(メタデータ) (2022-01-03T06:16:30Z) - On the Universality of Graph Neural Networks on Large Random Graphs [22.720758067273195]
グラフニューラルネットワーク(GNN)の潜在位置乱数グラフに対する近似能力について検討する。
大きなグラフ極限では、GNNはc-GNNとして知られるある種の連続的なモデルに収束することが知られている。
我々は,c-SGNNが連続限界におけるc-GNNよりも厳格に強力なことを示す。
論文 参考訳(メタデータ) (2021-05-27T12:52:36Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Expressive Power of Invariant and Equivariant Graph Neural Networks [10.419350129060598]
Folklore Graph Neural Networks (FGNN) は、与えられたテンソル次数に対してこれまで提案されてきた最も表現力のあるアーキテクチャである。
FGNNはこの問題の解決方法を学ぶことができ、既存のアルゴリズムよりも平均的なパフォーマンスが向上する。
論文 参考訳(メタデータ) (2020-06-28T16:35:45Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z) - Efficient Probabilistic Logic Reasoning with Graph Neural Networks [63.099999467118245]
マルコフ論理ネットワーク(MLN)は、多くの知識グラフ問題に対処するために用いられる。
MLNの推論は計算集約的であり、MLNの産業規模での応用は非常に困難である。
本稿では,表現力とモデルの単純さとのバランスのよいグラフニューラルネット(GNN)モデルであるExpressGNNを提案する。
論文 参考訳(メタデータ) (2020-01-29T23:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。