論文の概要: PAC-Bayesian Adversarially Robust Generalization Bounds for Graph Neural Network
- arxiv url: http://arxiv.org/abs/2402.04038v2
- Date: Sat, 6 Jul 2024 05:42:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-10 02:48:51.346053
- Title: PAC-Bayesian Adversarially Robust Generalization Bounds for Graph Neural Network
- Title(参考訳): グラフニューラルネットワークのための PAC-Bayesian Adversarially Robust Generalization bounds
- Authors: Tan Sun, Junhong Lin,
- Abstract要約: グラフニューラルネットワーク(GNN)は敵の攻撃に対して脆弱である。
本稿では,2種類の人気GNNに対して,逆向きに頑健な一般化境界を提供する。
- 参考スコア(独自算出の注目度): 5.340644246815989
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) have gained popularity for various graph-related tasks. However, similar to deep neural networks, GNNs are also vulnerable to adversarial attacks. Empirical studies have shown that adversarially robust generalization has a pivotal role in establishing effective defense algorithms against adversarial attacks. In this paper, we contribute by providing adversarially robust generalization bounds for two kinds of popular GNNs, graph convolutional network (GCN) and message passing graph neural network, using the PAC-Bayesian framework. Our result reveals that spectral norm of the diffusion matrix on the graph and spectral norm of the weights as well as the perturbation factor govern the robust generalization bounds of both models. Our bounds are nontrivial generalizations of the results developed in (Liao et al., 2020) from the standard setting to adversarial setting while avoiding exponential dependence of the maximum node degree. As corollaries, we derive better PAC-Bayesian robust generalization bounds for GCN in the standard setting, which improve the bounds in (Liao et al., 2020) by avoiding exponential dependence on the maximum node degree.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、さまざまなグラフ関連タスクで人気を集めている。
しかし、ディープニューラルネットワークと同様に、GNNも敵の攻撃に対して脆弱である。
実証的研究により、敵の攻撃に対する効果的な防御アルゴリズムを確立する上で、敵の堅牢な一般化が重要な役割を担っていることが示されている。
本稿では, PAC-Bayesianフレームワークを用いて, 2種類の人気GNN, グラフ畳み込みネットワーク(GCN), メッセージパッシンググラフニューラルネットワークに対して, 逆向きに堅牢な一般化バウンダリを提供する。
その結果、グラフ上の拡散行列のスペクトルノルムと重みのスペクトルノルムと摂動係数が両モデルの堅牢な一般化境界を支配していることが明らかとなった。
我々の境界は、(Liao et al , 2020) で開発された結果の標準設定から反対設定への非自明な一般化であり、最大ノード次数の指数的依存を回避している。
コーナリーとして、最大ノード次数への指数的依存を回避して(Liao et al , 2020)のバウンダリを改善する標準設定におけるGCNに対するより優れたPAC-Bayesianのロバストな一般化境界を導出する。
関連論文リスト
- A Manifold Perspective on the Statistical Generalization of Graph Neural Networks [84.01980526069075]
我々は、スペクトル領域の多様体からサンプリングされたグラフ上のGNNの統計的一般化理論を確立するために多様体の視点を取る。
我々はGNNの一般化境界が対数スケールのグラフのサイズとともに線形に減少し、フィルタ関数のスペクトル連続定数とともに線形的に増加することを証明した。
論文 参考訳(メタデータ) (2024-06-07T19:25:02Z) - Graph Out-of-Distribution Generalization via Causal Intervention [69.70137479660113]
本稿では,ノードレベルの分散シフトの下で頑健なグラフニューラルネットワーク(GNN)をトレーニングするための,概念的に単純だが原則化されたアプローチを提案する。
本手法は,環境推定器と熟練GNN予測器を協調する因果推論に基づく新たな学習目標を提案する。
本モデルでは,様々な分散シフトによる一般化を効果的に向上し,グラフOOD一般化ベンチマーク上での最先端の精度を最大27.4%向上させることができる。
論文 参考訳(メタデータ) (2024-02-18T07:49:22Z) - PAC-Bayesian Spectrally-Normalized Bounds for Adversarially Robust
Generalization [25.272738030198862]
ディープニューラルネットワーク(DNN)は敵の攻撃に対して脆弱である。
敵の攻撃に対する防衛アルゴリズムを確立するには 敵の強固な一般化が不可欠だ
本稿では、PAC-Bayesアプローチに基づくノルムに基づく摂動の複雑さに焦点を当てる。
論文 参考訳(メタデータ) (2023-10-09T22:20:27Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - CAP: Co-Adversarial Perturbation on Weights and Features for Improving
Generalization of Graph Neural Networks [59.692017490560275]
敵の訓練は、敵の攻撃に対するモデルの堅牢性を改善するために広く実証されてきた。
グラフ解析問題におけるGNNの一般化能力をどのように改善するかは、まだ不明である。
我々は、重みと特徴量の観点から共振器摂動(CAP)最適化問題を構築し、重みと特徴の損失を交互に平らにする交互対振器摂動アルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-10-28T02:28:13Z) - Graph Neural Networks Inspired by Classical Iterative Algorithms [28.528150667063876]
我々は、2つの古典的反復アルゴリズムの更新ルールを模倣し、統合するために設計された新しいGNNレイヤーのファミリーを考える。
新しい注意機構は、基礎となるエンドツーエンドエネルギー関数に明示的に固定され、エッジの不確かさに関する安定性に寄与する。
論文 参考訳(メタデータ) (2021-03-10T14:08:12Z) - A PAC-Bayesian Approach to Generalization Bounds for Graph Neural
Networks [99.46182575751271]
グラフニューラルネットワーク(GNN)の2つの一次クラスに対する一般化境界を導出する。
その結果,重みの最大ノード次数とスペクトルノルムが両モデルの一般化境界を規定することが明らかとなった。
論文 参考訳(メタデータ) (2020-12-14T16:41:23Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。