論文の概要: Global Minima, Recoverability Thresholds, and Higher-Order Structure in
GNNS
- arxiv url: http://arxiv.org/abs/2310.07667v1
- Date: Wed, 11 Oct 2023 17:16:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 21:38:59.600203
- Title: Global Minima, Recoverability Thresholds, and Higher-Order Structure in
GNNS
- Title(参考訳): GNNSにおけるグローバル・ミニマ、リカバリビリティ・閾値、高次構造
- Authors: Drake Brown, Trevor Garrity, Kaden Parker, Jason Oliphant, Stone
Carson, Cole Hanson, and Zachary Boyd
- Abstract要約: ランダムグラフ理論の観点から,グラフニューラルネットワーク(GNN)アーキテクチャの性能を解析する。
合成データにおける特定の高次構造と実データにおける経験的構造の混合が、GNNの性能に劇的な影響を及ぼすことを示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We analyze the performance of graph neural network (GNN) architectures from
the perspective of random graph theory. Our approach promises to complement
existing lenses on GNN analysis, such as combinatorial expressive power and
worst-case adversarial analysis, by connecting the performance of GNNs to
typical-case properties of the training data. First, we theoretically
characterize the nodewise accuracy of one- and two-layer GCNs relative to the
contextual stochastic block model (cSBM) and related models. We additionally
prove that GCNs cannot beat linear models under certain circumstances. Second,
we numerically map the recoverability thresholds, in terms of accuracy, of four
diverse GNN architectures (GCN, GAT, SAGE, and Graph Transformer) under a
variety of assumptions about the data. Sample results of this second analysis
include: heavy-tailed degree distributions enhance GNN performance, GNNs can
work well on strongly heterophilous graphs, and SAGE and Graph Transformer can
perform well on arbitrarily noisy edge data, but no architecture handled
sufficiently noisy feature data well. Finally, we show how both specific
higher-order structures in synthetic data and the mix of empirical structures
in real data have dramatic effects (usually negative) on GNN performance.
- Abstract(参考訳): ランダムグラフ理論の観点から,グラフニューラルネットワーク(GNN)アーキテクチャの性能を解析する。
提案手法は,GNNの性能とトレーニングデータの典型的特性を結合することにより,GNN解析における既存のレンズ,例えば組合せ表現力や最悪の逆解析を補完するものである。
まず,文脈確率ブロックモデル(cSBM)と関連するモデルに対して,一層および二層GCNのノードワイズ精度を理論的に評価する。
また,ある状況下ではGCNが線形モデルに勝てないことも証明する。
次に,GNN アーキテクチャ (GCN, GAT, SAGE, Graph Transformer) の復元可能性しきい値の精度を,データに関する様々な仮定の下で数値的にマップする。
重み付き次数分布はGNNの性能を高め、GNNは強いヘテロフィルグラフでうまく機能し、SAGEとGraph Transformerは任意にノイズの多いエッジデータでうまく機能するが、十分なノイズの多い特徴データを扱うアーキテクチャは存在しない。
最後に、合成データにおける特定の高次構造と実データにおける経験的構造の混合が、GNNの性能に劇的な効果(通常は負)をもたらすことを示す。
関連論文リスト
- Generalization of Graph Neural Networks is Robust to Model Mismatch [84.01980526069075]
グラフニューラルネットワーク(GNN)は、その一般化能力によってサポートされている様々なタスクにおいて、その効果を実証している。
本稿では,多様体モデルから生成される幾何グラフで動作するGNNについて検討する。
本稿では,そのようなモデルミスマッチの存在下でのGNN一般化の堅牢性を明らかにする。
論文 参考訳(メタデータ) (2024-08-25T16:00:44Z) - Implicit Graph Neural Diffusion Networks: Convergence, Generalization,
and Over-Smoothing [7.984586585987328]
Inlicit Graph Neural Networks (GNN)は、グラフ学習問題に対処する上で大きな成功を収めた。
パラメータ化グラフラプラシアン演算子に基づく暗黙グラフ拡散層を設計するための幾何学的枠組みを提案する。
ディリクレエネルギー最小化問題の固定点方程式として, 暗黙のGNN層がどう見えるかを示す。
論文 参考訳(メタデータ) (2023-08-07T05:22:33Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - GCNH: A Simple Method For Representation Learning On Heterophilous
Graphs [4.051099980410583]
グラフニューラルネットワーク(GNN)は、ホモフィルグラフの学習に適している。
近年,異種グラフの性能向上を目的とした標準GNNアーキテクチャの拡張が提案されている。
ヘテロフィリィ(GCNH)のためのGCNを提案し,ヘテロフィリィシナリオとホモフィリィシナリオの両方に適用できる簡易かつ効果的なGNNアーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-04-21T11:26:24Z) - 2-hop Neighbor Class Similarity (2NCS): A graph structural metric
indicative of graph neural network performance [4.051099980410583]
グラフニューラルネットワーク(GNN)は、多数のドメインにわたるグラフ構造化データに対して最先端のパフォーマンスを実現する。
異なるタイプのノードが接続されるヘテロ親和性グラフでは、GNNは一貫して機能しない。
2-hop Neighbor Class similarity (2NCS) は、GNNのパフォーマンスと、他の指標よりも強く、一貫して相関する新しい定量的グラフ構造特性である。
論文 参考訳(メタデータ) (2022-12-26T16:16:51Z) - Reliable Representations Make A Stronger Defender: Unsupervised
Structure Refinement for Robust GNN [36.045702771828736]
グラフニューラルネットワーク(GNN)は、グラフデータ上でのタスクの繁栄に成功している。
近年の研究では、グラフ構造を悪質に修正することで、攻撃者がGNNの性能を壊滅的に低下させることができることが示されている。
グラフ構造を最適化するための教師なしパイプラインSTABLEを提案する。
論文 参考訳(メタデータ) (2022-06-30T10:02:32Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - ES-GNN: Generalizing Graph Neural Networks Beyond Homophily with Edge Splitting [32.69196871253339]
本稿では,学習タスクに関係のないグラフエッジを適応的に識別する新しいエッジ分割GNN(ES-GNN)フレームワークを提案する。
本稿では,ES-GNNを非交叉グラフ記述問題の解とみなすことができることを示す。
論文 参考訳(メタデータ) (2022-05-27T01:29:03Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。