論文の概要: Expressivity of Graph Neural Networks Through the Lens of Adversarial
Robustness
- arxiv url: http://arxiv.org/abs/2308.08173v1
- Date: Wed, 16 Aug 2023 07:05:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-17 14:32:40.460070
- Title: Expressivity of Graph Neural Networks Through the Lens of Adversarial
Robustness
- Title(参考訳): 逆ロバスト性レンズによるグラフニューラルネットワークの表現性
- Authors: Francesco Campi, Lukas Gosch, Tom Wollschl\"ager, Yan Scholten,
Stephan G\"unnemann
- Abstract要約: 我々は、理論的に可能であり、実証的に達成された表現力の間の大きなギャップを明らかにするためのツールとして、敵の頑健性を用いる。
また,グラフ構造に対する小さな摂動に対しても,より強力なGNNが一般化できないことを示す。
- 参考スコア(独自算出の注目度): 4.55163339280126
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We perform the first adversarial robustness study into Graph Neural Networks
(GNNs) that are provably more powerful than traditional Message Passing Neural
Networks (MPNNs). In particular, we use adversarial robustness as a tool to
uncover a significant gap between their theoretically possible and empirically
achieved expressive power. To do so, we focus on the ability of GNNs to count
specific subgraph patterns, which is an established measure of expressivity,
and extend the concept of adversarial robustness to this task. Based on this,
we develop efficient adversarial attacks for subgraph counting and show that
more powerful GNNs fail to generalize even to small perturbations to the
graph's structure. Expanding on this, we show that such architectures also fail
to count substructures on out-of-distribution graphs.
- Abstract(参考訳): 従来のMPNN(Message Passing Neural Networks)よりも明らかに強力なグラフニューラルネットワーク(GNN)について,最初の対角的堅牢性研究を行う。
特に,その理論上可能かつ実証的に達成された表現力の間の大きなギャップを明らかにするためのツールとして,敵対的ロバスト性を用いる。
そこで我々は,表現力の確立された尺度である特定のサブグラフパターンをカウントするGNNの能力に着目し,対角的ロバスト性の概念をこの課題に拡張する。
そこで我々は,グラフの数値化に対する効率的な逆数攻撃を開発し,グラフ構造に対する小さな摂動に対しても,より強力なGNNが一般化できないことを示す。
これに基づいて、そのようなアーキテクチャは分布外グラフのサブ構造をカウントできないことを示す。
関連論文リスト
- Scalable Message Passing Neural Networks: No Need for Attention in Large Graph Representation Learning [15.317501970096743]
我々は、標準畳み込みメッセージパッシングを注意の代わりにプレ層正規化トランスフォーマースタイルのブロックに統合することにより、高性能なディープメッセージパッシングベースグラフニューラルネットワーク(GNN)を実現できることを示す。
結果は、大グラフトランスダクティブ学習における最先端の最先端と競合するが、それ以外は計算的かつメモリ拡張的な注意機構を必要としない。
論文 参考訳(メタデータ) (2024-10-29T17:18:43Z) - Can Directed Graph Neural Networks be Adversarially Robust? [26.376780541893154]
本研究では,グラフニューラルネットワーク(GNN)の堅牢性とレジリエンスを高めるために,有向グラフがもたらす深い信頼感を活用することを目的とする。
我々は,新しい,現実的なグラフアタック設定を導入し,プラグイン層として革新的で普遍的で効率的なメッセージパッシングフレームワークを提案する。
このフレームワークはクリーンな精度と最先端の堅牢なパフォーマンスに優れており、転送攻撃と適応攻撃の両方に対して優れた防御を提供する。
論文 参考訳(メタデータ) (2023-06-03T04:56:04Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - On the Expressiveness and Generalization of Hypergraph Neural Networks [77.65788763444877]
この拡張抽象化はハイパーグラフニューラルネットワーク(HyperGNN)の表現性、学習、および(構造的)一般化を分析するためのフレームワークを記述する。
具体的には、HyperGNNが有限データセットからどのように学習し、任意の入力サイズのグラフ推論問題に構造的に一般化するかに焦点を当てる。
論文 参考訳(メタデータ) (2023-03-09T18:42:18Z) - Ego-GNNs: Exploiting Ego Structures in Graph Neural Networks [12.97622530614215]
Ego-GNNは、実世界のグラフにおける推移性の優位性を考えると、閉三角形を認識できることを示す。
特に、Ego-GNNは、実世界のグラフにおける推移性の優位性を考えると、閉三角形を認識することができることを示す。
論文 参考訳(メタデータ) (2021-07-22T23:42:23Z) - Counting Substructures with Higher-Order Graph Neural Networks:
Possibility and Impossibility Results [58.277290855841976]
グラフニューラルネットワーク(GNN)の計算コストと表現力のトレードオフについて検討する。
新しいモデルでは、$k$のサブグラフをカウントでき、低次GNNの既知の制限を克服できることを示す。
いくつかの場合において、提案アルゴリズムは既存の高階$k$-GNNに比べて計算量を大幅に削減することができる。
論文 参考訳(メタデータ) (2020-12-06T03:42:54Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z) - Distance Encoding: Design Provably More Powerful Neural Networks for
Graph Representation Learning [63.97983530843762]
グラフニューラルネットワーク(GNN)はグラフ表現学習において大きな成功を収めている。
GNNは、実際には非常に異なるグラフ部分構造に対して同一の表現を生成する。
より強力なGNNは、最近高階試験を模倣して提案され、基礎となるグラフ構造を疎結合にできないため、非効率である。
本稿では,グラフ表現学習の新たなクラスとして距離分解(DE)を提案する。
論文 参考訳(メタデータ) (2020-08-31T23:15:40Z) - Improving Graph Neural Network Expressivity via Subgraph Isomorphism
Counting [63.04999833264299]
グラフサブストラクチャネットワーク(GSN)は,サブストラクチャエンコーディングに基づくトポロジ的に認識可能なメッセージパッシング方式である。
Wesfeiler-Leman (WL) グラフ同型テストよりも厳密に表現可能であることを示す。
グラフ分類と回帰タスクについて広範囲に評価を行い、様々な実世界の環境において最先端の結果を得る。
論文 参考訳(メタデータ) (2020-06-16T15:30:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。