論文の概要: DropGNN: Random Dropouts Increase the Expressiveness of Graph Neural
Networks
- arxiv url: http://arxiv.org/abs/2111.06283v1
- Date: Thu, 11 Nov 2021 15:48:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-12 15:07:08.132687
- Title: DropGNN: Random Dropouts Increase the Expressiveness of Graph Neural
Networks
- Title(参考訳): DropGNN: ランダムなドロップアウトはグラフニューラルネットワークの表現性を向上する
- Authors: P\'al Andr\'as Papp, Karolis Martinkus, Lukas Faber, Roger Wattenhofer
- Abstract要約: 本稿では,ドロップアウトグラフニューラルネットワーク(DropGNN)について検討する。
DropGNNでは、入力グラフ上でGNNの複数の実行を実行する。
我々はDropGNNがメッセージパッシングGNNによって分離できない様々なグラフ近傍を識別できることを証明した。
- 参考スコア(独自算出の注目度): 5.341775889132917
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies Dropout Graph Neural Networks (DropGNNs), a new approach
that aims to overcome the limitations of standard GNN frameworks. In DropGNNs,
we execute multiple runs of a GNN on the input graph, with some of the nodes
randomly and independently dropped in each of these runs. Then, we combine the
results of these runs to obtain the final result. We prove that DropGNNs can
distinguish various graph neighborhoods that cannot be separated by message
passing GNNs. We derive theoretical bounds for the number of runs required to
ensure a reliable distribution of dropouts, and we prove several properties
regarding the expressive capabilities and limits of DropGNNs. We experimentally
validate our theoretical findings on expressiveness. Furthermore, we show that
DropGNNs perform competitively on established GNN benchmarks.
- Abstract(参考訳): 本稿では,標準gnnフレームワークの限界を克服する新しいアプローチであるdropout graph neural networks(dropgnns)について述べる。
DropGNNでは、入力グラフ上でGNNの複数の実行を実行する。
そして、これらの結果を組み合わせて最終的な結果を得る。
我々はDropGNNがメッセージパッシングGNNによって分離できない様々なグラフ近傍を識別できることを証明する。
我々は、ドロップアウトの信頼性の確保に必要な実行回数の理論的境界を導出し、dropgnnの表現能力と限界に関するいくつかの特性を証明した。
表現力に関する理論的知見を実験的に検証した。
さらに,DropGNNは,既存のGNNベンチマークと競合することを示す。
関連論文リスト
- Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - Information Flow in Graph Neural Networks: A Clinical Triage Use Case [49.86931948849343]
グラフニューラルネットワーク(GNN)は、マルチモーダルグラフとマルチリレーショナルグラフを処理する能力によって、医療やその他の領域で人気を集めている。
GNNにおける埋め込み情報のフローが知識グラフ(KG)におけるリンクの予測に与える影響について検討する。
以上の結果から,ドメイン知識をGNN接続に組み込むことで,KGと同じ接続を使用する場合や,制約のない埋め込み伝搬を行う場合よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2023-09-12T09:18:12Z) - GNNInterpreter: A Probabilistic Generative Model-Level Explanation for
Graph Neural Networks [25.94529851210956]
本稿では,異なるグラフニューラルネットワーク(GNN)に対して,メッセージパッシング方式であるGNNInterpreterに従うモデルに依存しないモデルレベルの説明手法を提案する。
GNNInterpreterは、GNNが検出しようとする最も識別性の高いグラフパターンを生成する確率的生成グラフ分布を学習する。
既存の研究と比較すると、GNNInterpreterはノードとエッジの異なるタイプの説明グラフを生成する際に、より柔軟で計算的に効率的である。
論文 参考訳(メタデータ) (2022-09-15T07:45:35Z) - KerGNNs: Interpretable Graph Neural Networks with Graph Kernels [14.421535610157093]
グラフニューラルネットワーク(GNN)は、下流グラフ関連タスクにおける最先端の手法となっている。
我々は新しいGNNフレームワークKernel Graph Neural Networks(KerGNNs)を提案する。
KerGNNはグラフカーネルをGNNのメッセージパッシングプロセスに統合する。
提案手法は,既存の最先端手法と比較して,競争性能が向上することを示す。
論文 参考訳(メタデータ) (2022-01-03T06:16:30Z) - Ego-GNNs: Exploiting Ego Structures in Graph Neural Networks [12.97622530614215]
Ego-GNNは、実世界のグラフにおける推移性の優位性を考えると、閉三角形を認識できることを示す。
特に、Ego-GNNは、実世界のグラフにおける推移性の優位性を考えると、閉三角形を認識することができることを示す。
論文 参考訳(メタデータ) (2021-07-22T23:42:23Z) - AKE-GNN: Effective Graph Learning with Adaptive Knowledge Exchange [14.919474099848816]
グラフニューラルネットワーク(GNN)はすでに様々なグラフマイニングタスクで広く使われている。
近年の研究では、十分に訓練されたGNNにおける学習重量(チャネル)が非常に冗長であり、GNNの性能が制限されていることが明らかになっている。
本稿では,Aaptive Knowledge Exchange 戦略を実行する新しい GNN 学習フレームワーク AKE-GNN を紹介する。
論文 参考訳(メタデータ) (2021-06-10T02:00:26Z) - Optimization of Graph Neural Networks: Implicit Acceleration by Skip
Connections and More Depth [57.10183643449905]
グラフニューラルネットワーク(GNN)は表現力と一般化のレンズから研究されている。
GNNのダイナミクスを深部スキップ最適化により研究する。
本研究は,GNNの成功に対する最初の理論的支援を提供する。
論文 参考訳(メタデータ) (2021-05-10T17:59:01Z) - FedGraphNN: A Federated Learning System and Benchmark for Graph Neural
Networks [68.64678614325193]
グラフニューラルネットワーク(GNN)の研究は、グラフ構造データから表現を学ぶGNNの能力のおかげで急速に成長しています。
GNNトレーニングのための大量の実世界のグラフデータを集中させることは、ユーザ側のプライバシー上の懸念から禁じられている。
GNNベースのFL研究を促進するためのオープンリサーチフェデレーション学習システムとベンチマークであるFedGraphNNを紹介します。
論文 参考訳(メタデータ) (2021-04-14T22:11:35Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z) - A Survey on The Expressive Power of Graph Neural Networks [6.09170287691728]
グラフニューラルネットワーク(GNN)は、様々なグラフ学習問題に対して効果的な機械学習モデルである。
彼らの経験的成功にもかかわらず、GNNの理論的限界が最近明らかにされている。
我々は、GNNの表現力と証明可能なGNNの強力な変種を包括的に概説する。
論文 参考訳(メタデータ) (2020-03-09T12:37:40Z) - Efficient Probabilistic Logic Reasoning with Graph Neural Networks [63.099999467118245]
マルコフ論理ネットワーク(MLN)は、多くの知識グラフ問題に対処するために用いられる。
MLNの推論は計算集約的であり、MLNの産業規模での応用は非常に困難である。
本稿では,表現力とモデルの単純さとのバランスのよいグラフニューラルネット(GNN)モデルであるExpressGNNを提案する。
論文 参考訳(メタデータ) (2020-01-29T23:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。