論文の概要: Rethinking pooling in graph neural networks
- arxiv url: http://arxiv.org/abs/2010.11418v1
- Date: Thu, 22 Oct 2020 03:48:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 04:53:47.960590
- Title: Rethinking pooling in graph neural networks
- Title(参考訳): グラフニューラルネットワークにおけるプール再考
- Authors: Diego Mesquita, Amauri H. Souza, Samuel Kaski
- Abstract要約: 畳み込み層とその後のプール層との相互作用について検討する。
一般的な信念とは対照的に、局所プールは、関連する、広く使用されているベンチマーク上でのGNNの成功には寄与しない。
- 参考スコア(独自算出の注目度): 12.168949038217889
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph pooling is a central component of a myriad of graph neural network
(GNN) architectures. As an inheritance from traditional CNNs, most approaches
formulate graph pooling as a cluster assignment problem, extending the idea of
local patches in regular grids to graphs. Despite the wide adherence to this
design choice, no work has rigorously evaluated its influence on the success of
GNNs. In this paper, we build upon representative GNNs and introduce variants
that challenge the need for locality-preserving representations, either using
randomization or clustering on the complement graph. Strikingly, our
experiments demonstrate that using these variants does not result in any
decrease in performance. To understand this phenomenon, we study the interplay
between convolutional layers and the subsequent pooling ones. We show that the
convolutions play a leading role in the learned representations. In contrast to
the common belief, local pooling is not responsible for the success of GNNs on
relevant and widely-used benchmarks.
- Abstract(参考訳): グラフプーリングは、無数のグラフニューラルネットワーク(GNN)アーキテクチャの中心的なコンポーネントである。
従来のcnnからの継承として、ほとんどのアプローチはグラフプーリングをクラスタ割り当て問題として定式化し、正規格子のローカルパッチのアイデアをグラフに拡張する。
このデザインの選択に幅広い従属性があるにもかかわらず、GNNの成功に対するその影響を厳格に評価する作業は行われていない。
本稿では,代表的GNNを基盤として,確率化や補グラフ上のクラスタリングといった局所性保存表現の必要性に挑戦する変種を導入する。
興味深いことに、我々の実験はこれらの変種を使用することで性能が低下しないことを示した。
この現象を理解するために,畳み込み層とその後のプール層との相互作用を研究する。
畳み込みが学習表現において主要な役割を果たすことを示す。
一般的な信念とは対照的に、局所プールは、関連する、広く使用されているベンチマーク上でのGNNの成功には寄与しない。
関連論文リスト
- Tackling Oversmoothing in GNN via Graph Sparsification: A Truss-based Approach [1.4854797901022863]
本稿では,グラフの高密度領域からエッジを抽出する新鮮で柔軟なトラスグラフスペーシフィケーションモデルを提案する。
次に、GIN、SAGPool、GMT、DiffPool、MinCutPool、HGP-SL、DMonPool、AdamGNNといった最先端のベースラインGNNとプールモデルでスパーシフィケーションモデルを利用する。
論文 参考訳(メタデータ) (2024-07-16T17:21:36Z) - Learning to Reweight for Graph Neural Network [63.978102332612906]
グラフニューラルネットワーク(GNN)は、グラフタスクに対して有望な結果を示す。
既存のGNNの一般化能力は、テストとトレーニンググラフデータの間に分散シフトが存在する場合に低下する。
本稿では,分布外一般化能力を大幅に向上させる非線形グラフデコリレーション法を提案する。
論文 参考訳(メタデータ) (2023-12-19T12:25:10Z) - Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - Re-Think and Re-Design Graph Neural Networks in Spaces of Continuous
Graph Diffusion Functionals [7.6435511285856865]
グラフニューラルネットワーク(GNN)は、ソーシャルネットワークや生体システムのようなドメインで広く使われている。
GNNのローカリティ仮定は、グラフ内の長距離依存関係とグローバルパターンをキャプチャする能力を損なう。
本稿では,ブラヒクロニスト問題から着想を得た変分解析に基づく新しい帰納バイアスを提案する。
論文 参考訳(メタデータ) (2023-07-01T04:44:43Z) - Deep Ensembles for Graphs with Higher-order Dependencies [13.164412455321907]
グラフニューラルネットワーク(GNN)は多くのグラフ学習タスクで最先端のパフォーマンスを継続する。
従来のグラフ表現が各ノードの近傍に不適合な傾向は,既存のGNNの一般化に悪影響を及ぼすことを示す。
本稿では,同一ノードの異なる近傍部分空間上でGNNのアンサンブルを訓練することにより,近傍のばらつきを捉える新しいディープグラフアンサンブル(DGE)を提案する。
論文 参考訳(メタデータ) (2022-05-27T14:01:08Z) - Generalizing Graph Neural Networks on Out-Of-Distribution Graphs [51.33152272781324]
トレーニンググラフとテストグラフの分散シフトを考慮せずにグラフニューラルネットワーク(GNN)を提案する。
このような環境では、GNNは、たとえ素早い相関であるとしても、予測のためのトレーニングセットに存在する微妙な統計的相関を利用する傾向がある。
本稿では,スプリアス相関の影響を排除するため,StableGNNと呼ばれる一般的な因果表現フレームワークを提案する。
論文 参考訳(メタデータ) (2021-11-20T18:57:18Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - Graph Neural Networks: Architectures, Stability and Transferability [176.3960927323358]
グラフニューラルネットワーク(GNN)は、グラフでサポートされている信号のための情報処理アーキテクチャである。
これらは、個々の層がグラフ畳み込みフィルタのバンクを含む畳み込みニューラルネットワーク(CNN)の一般化である。
論文 参考訳(メタデータ) (2020-08-04T18:57:36Z) - Graph Clustering with Graph Neural Networks [5.305362965553278]
グラフニューラルネットワーク(GNN)は多くのグラフ解析タスクにおいて最先端の結果を得た。
グラフクラスタリングのようなグラフ上の教師なしの問題は、GNNの進歩に対してより抵抗性があることが証明されている。
本稿では,クラスタリング品質のモジュラリティ尺度にインスパイアされた教師なしプール手法であるDeep Modularity Networks (DMoN)を紹介する。
論文 参考訳(メタデータ) (2020-06-30T15:30:49Z) - Stochastic Graph Neural Networks [123.39024384275054]
グラフニューラルネットワーク(GNN)は、分散エージェント調整、制御、計画に応用したグラフデータの非線形表現をモデル化する。
現在のGNNアーキテクチャは理想的なシナリオを前提として,環境やヒューマンファクタ,あるいは外部攻撃によるリンク変動を無視している。
これらの状況において、GNNは、トポロジカルなランダム性を考慮していない場合、その分散タスクに対処することができない。
論文 参考訳(メタデータ) (2020-06-04T08:00:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。