論文の概要: $\omega$GNNs: Deep Graph Neural Networks Enhanced by Multiple
Propagation Operators
- arxiv url: http://arxiv.org/abs/2210.17224v1
- Date: Mon, 31 Oct 2022 11:08:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 18:20:31.220942
- Title: $\omega$GNNs: Deep Graph Neural Networks Enhanced by Multiple
Propagation Operators
- Title(参考訳): $\omega$GNNs: 複数の伝搬演算子によって強化されたディープグラフニューラルネットワーク
- Authors: Moshe Eliasof, Lars Ruthotto, Eran Treister
- Abstract要約: グラフニューラルネットワーク(GNN)は、伝播演算子で制限される。
一部のGNNは過密に苦しんでおり、その深さを制限している。
CNNは多様な伝搬フィルタを学習でき、過剰なスムーシングのような現象は典型的にはCNNでは見られない。
- 参考スコア(独自算出の注目度): 9.50726756006467
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) are limited in their propagation operators.
These operators often contain non-negative elements only and are shared across
channels and layers, limiting the expressiveness of GNNs. Moreover, some GNNs
suffer from over-smoothing, limiting their depth. On the other hand,
Convolutional Neural Networks (CNNs) can learn diverse propagation filters, and
phenomena like over-smoothing are typically not apparent in CNNs. In this
paper, we bridge this gap by incorporating trainable channel-wise weighting
factors $\omega$ to learn and mix multiple smoothing and sharpening propagation
operators at each layer. Our generic method is called $\omega$GNN, and we study
two variants: $\omega$GCN and $\omega$GAT. For $\omega$GCN, we theoretically
analyse its behaviour and the impact of $\omega$ on the obtained node features.
Our experiments confirm these findings, demonstrating and explaining how both
variants do not over-smooth. Additionally, we experiment with 15 real-world
datasets on node- and graph-classification tasks, where our $\omega$GCN and
$\omega$GAT perform better or on par with state-of-the-art methods.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、伝播演算子で制限される。
これらの演算子はしばしば非負の要素のみを含み、チャネルや層間で共有され、GNNの表現性を制限する。
さらに、一部のGNNは過密に悩まされ、深さが制限される。
一方、畳み込みニューラルネットワーク(CNN)は多様な伝搬フィルタを学習でき、過度に滑らかな現象は典型的にはCNNでは見られない。
本稿では,各層における複数の平滑化・研削伝播演算子の学習と混合のために,訓練可能なチャネル単位の重み付け係数$\omega$を組み込むことにより,このギャップを埋める。
我々のジェネリックメソッドは$\omega$GNNと呼ばれ、$\omega$GCNと$\omega$GATの2つの変種を研究する。
$\omega$GCNの場合、理論的にその振る舞いと得られたノード機能に対する$\omega$の影響を分析する。
実験ではこれらの知見を確認し,両変種が過度に滑らかでないことを示す。
さらに、ノードとグラフの分類タスクで15の実世界のデータセットを実験し、$\omega$GCNと$\omega$GATは、最先端のメソッドと同等あるいは同等に機能する。
関連論文リスト
- Graph neural networks and non-commuting operators [4.912318087940015]
我々は,グラフトン・タプルニューラルネットワークの極限理論を開発し,それを普遍的な伝達可能性定理の証明に利用する。
我々の理論的結果は、GNNのよく知られた移動可能性定理を、複数の同時グラフの場合にまで拡張する。
得られたモデルの安定性を確実に実施する訓練手順を導出する。
論文 参考訳(メタデータ) (2024-11-06T21:17:14Z) - Spatio-Spectral Graph Neural Networks [50.277959544420455]
比スペクトルグラフネットワーク(S$2$GNN)を提案する。
S$2$GNNは空間的およびスペクトル的にパラメータ化されたグラフフィルタを組み合わせる。
S$2$GNNsは、MPGNNsよりも厳密な近似理論誤差境界を生じる。
論文 参考訳(メタデータ) (2024-05-29T14:28:08Z) - Degree-based stratification of nodes in Graph Neural Networks [66.17149106033126]
グラフニューラルネットワーク(GNN)アーキテクチャを変更して,各グループのノードに対して,重み行列を個別に学習する。
このシンプルな実装変更により、データセットとGNNメソッドのパフォーマンスが改善されているようだ。
論文 参考訳(メタデータ) (2023-12-16T14:09:23Z) - Higher-order Sparse Convolutions in Graph Neural Networks [17.647346486710514]
グラフ信号のソボレフノルムに基づく新しい高次スパース畳み込みを導入する。
S-SobGNNは、最先端のいくつかの手法と比較して、全てのアプリケーションで競合性能を示す。
論文 参考訳(メタデータ) (2023-02-21T08:08:18Z) - Graph Neural Networks with Adaptive Frequency Response Filter [55.626174910206046]
適応周波数応答フィルタを用いたグラフニューラルネットワークフレームワークAdaGNNを開発した。
提案手法の有効性を,様々なベンチマークデータセット上で実証的に検証した。
論文 参考訳(メタデータ) (2021-04-26T19:31:21Z) - Graph Neural Networks: Architectures, Stability and Transferability [176.3960927323358]
グラフニューラルネットワーク(GNN)は、グラフでサポートされている信号のための情報処理アーキテクチャである。
これらは、個々の層がグラフ畳み込みフィルタのバンクを含む畳み込みニューラルネットワーク(CNN)の一般化である。
論文 参考訳(メタデータ) (2020-08-04T18:57:36Z) - Optimization and Generalization Analysis of Transduction through
Gradient Boosting and Application to Multi-scale Graph Neural Networks [60.22494363676747]
現在のグラフニューラルネットワーク(GNN)は、オーバースムーシング(over-smoothing)と呼ばれる問題のため、自分自身を深くするのは難しいことが知られている。
マルチスケールGNNは、オーバースムーシング問題を緩和するための有望なアプローチである。
マルチスケールGNNを含むトランスダクティブ学習アルゴリズムの最適化と一般化を保証する。
論文 参考訳(メタデータ) (2020-06-15T17:06:17Z) - Towards Deeper Graph Neural Networks with Differentiable Group
Normalization [61.20639338417576]
グラフニューラルネットワーク(GNN)は、隣接するノードを集約することでノードの表現を学習する。
オーバースムーシングは、レイヤーの数が増えるにつれてGNNのパフォーマンスが制限される重要な問題のひとつです。
2つのオーバースムースなメトリクスと新しいテクニック、すなわち微分可能群正規化(DGN)を導入する。
論文 参考訳(メタデータ) (2020-06-12T07:18:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。