論文の概要: KCES: Training-Free Defense for Robust Graph Neural Networks via Kernel Complexity
- arxiv url: http://arxiv.org/abs/2506.11611v1
- Date: Fri, 13 Jun 2025 09:33:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-16 17:50:49.734155
- Title: KCES: Training-Free Defense for Robust Graph Neural Networks via Kernel Complexity
- Title(参考訳): KCES:カーネル複雑度によるロバストグラフニューラルネットワークのトレーニングフリーディフェンス
- Authors: Yaning Jia, Shenyang Deng, Chiyu Ma, Yaoqing Yang, Soroush Vosoughi,
- Abstract要約: グラフニューラルネットワーク(GNN)は、小さくて知覚できない摂動や敵の攻撃に対して非常に脆弱である。
本稿では,KCES(Kernel Complexity-Based Edge Sanitization)を提案する。
KCESは一貫してGNNの堅牢性を高め、最先端のベースラインを上回り、既存の防御効果を増幅する。
- 参考スコア(独自算出の注目度): 24.925490936301184
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have achieved impressive success across a wide range of graph-based tasks, yet they remain highly vulnerable to small, imperceptible perturbations and adversarial attacks. Although numerous defense methods have been proposed to address these vulnerabilities, many rely on heuristic metrics, overfit to specific attack patterns, and suffer from high computational complexity. In this paper, we propose Kernel Complexity-Based Edge Sanitization (KCES), a training-free, model-agnostic defense framework. KCES leverages Graph Kernel Complexity (GKC), a novel metric derived from the graph's Gram matrix that characterizes GNN generalization via its test error bound. Building on GKC, we define a KC score for each edge, measuring the change in GKC when the edge is removed. Edges with high KC scores, typically introduced by adversarial perturbations, are pruned to mitigate their harmful effects, thereby enhancing GNNs' robustness. KCES can also be seamlessly integrated with existing defense strategies as a plug-and-play module without requiring training. Theoretical analysis and extensive experiments demonstrate that KCES consistently enhances GNN robustness, outperforms state-of-the-art baselines, and amplifies the effectiveness of existing defenses, offering a principled and efficient solution for securing GNNs.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、幅広いグラフベースのタスクで目覚ましい成功を収めていますが、小さな、知覚不能な摂動や敵の攻撃に対して非常に脆弱です。
これらの脆弱性に対処するために多くの防衛手法が提案されているが、多くはヒューリスティックなメトリクスに依存し、特定の攻撃パターンに過度に適合し、高い計算複雑性に悩まされている。
本稿では,KCES(Kernel Complexity-Based Edge Sanitization)を提案する。
KCESはグラフカーネル複雑度(GKC)を利用しており、グラフのグラマー行列から派生した新しい計量で、GNNの一般化をテストエラー境界によって特徴づけている。
GKCに基づいて各エッジに対するKCスコアを定義し,エッジの除去時のGKCの変化を測定した。
KCスコアが高いエッジは、通常、敵の摂動によって導入され、有害な効果を軽減し、GNNの堅牢性を高める。
KCESは、トレーニングを必要とせずに既存の防衛戦略をプラグイン・アンド・プレイモジュールとしてシームレスに統合することもできる。
理論的分析と広範な実験により、KCESはGNNの堅牢性を一貫して強化し、最先端のベースラインを上回り、既存の防御の有効性を高め、GNNを保護するための原則的で効率的なソリューションを提供することを示した。
関連論文リスト
- Grimm: A Plug-and-Play Perturbation Rectifier for Graph Neural Networks Defending against Poisoning Attacks [53.972077392749185]
近年の研究では、ノード分類タスクに対する敵対的中毒攻撃に対するグラフニューラルネットワーク(GNN)の脆弱性が明らかにされている。
ここでは、最初のプラグアンドプレイディフェンスモデルであるGrimmを紹介します。
論文 参考訳(メタデータ) (2024-12-11T17:17:02Z) - A Simple and Yet Fairly Effective Defense for Graph Neural Networks [18.140756786259615]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ上での機械学習の主要なアプローチとして登場した。
既存の対向性摂動に対する防御法は、時間的複雑さに悩まされている。
本稿では,ノイズを基礎となるモデルのアーキテクチャに組み込む新しい防御手法であるNoisyGNNを紹介する。
論文 参考訳(メタデータ) (2024-02-21T18:16:48Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - GARNET: Reduced-Rank Topology Learning for Robust and Scalable Graph
Neural Networks [15.448462928073635]
グラフニューラルネットワーク(GNN)は、非ユークリッドデータでの学習を含むさまざまなアプリケーションにますます導入されている。
近年の研究では、GNNはグラフ敵攻撃に弱いことが示されている。
本稿では,GNNモデルの対角的ロバスト性を高めるため,スケーラブルなスペクトル法であるGARNETを提案する。
論文 参考訳(メタデータ) (2022-01-30T06:32:44Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。