論文の概要: SEA: Spectral Edge Attacks on Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2512.08964v1
- Date: Sun, 30 Nov 2025 01:40:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 04:16:52.576254
- Title: SEA: Spectral Edge Attacks on Graph Neural Networks
- Title(参考訳): SEA: グラフニューラルネットワークにおけるスペクトルエッジ攻撃
- Authors: Yongyu Wang,
- Abstract要約: 本稿では,スペクトルロバスト性評価を利用して摂動を誘導する新たな攻撃群を提案する。
i)最もスペクトル的に堅牢なエッジを除去するSpade-guided deletion攻撃と,(ii)脆弱なスペクトル空間において最大不整合なノード間のエッジを挿入するSpade-guided addition攻撃である。
- 参考スコア(独自算出の注目度): 1.066048003460524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) achieve strong performance on graph-structured data, but are notoriously vulnerable to small, carefully crafted perturbations of the graph structure. Most existing structure-based attacks rely on gradient-based heuristics or local connectivity patterns, and treat edges as equally important candidates for manipulation. In this paper, we propose Spectral Edge Attacks (SEA), a new family of adversarial attacks that explicitly leverage spectral robustness evaluation to guide structural perturbations. Our key idea is to compute a spectral embedding that captures the most fragile directions of the input manifold and to use it to assign a robustness score to each edge or non-edge. Based on these scores, we introduce two complementary attack variants: (i) a Spade-guided deletion attack that removes the most spectrally robust edges, and (ii) a Spade-guided addition attack that inserts edges between nodes that are maximally incompatible in the fragile spectral space. Both attacks operate at the graph level, are model-aware but conceptually simple, and can be plugged into existing GNN architectures without requiring gradients. We describe the spectral formulation, the attack algorithms, and experiments on benchmarks.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造データに対して高いパフォーマンスを達成するが、グラフ構造の小さな、慎重に構築された摂動に対して脆弱である。
既存の構造に基づく攻撃のほとんどは、勾配に基づくヒューリスティックや局所接続パターンに依存しており、エッジを操作のための同様に重要な候補として扱う。
本稿では,スペクトルの強靭性評価を明示的に活用し,構造的摂動を誘導する新たな敵対攻撃であるスペクトルエッジアタック(SEA)を提案する。
我々のキーとなる考え方は、入力多様体の最も脆弱な方向をキャプチャするスペクトル埋め込みを計算し、それを用いて各エッジまたは非エッジにロバスト性スコアを割り当てることである。
これらのスコアに基づいて、2つの相補的な攻撃変種を導入する。
(i)最もスペクトル的に堅牢なエッジを除去するスペード誘導削除攻撃、及び
(ii) 脆弱なスペクトル空間において最大不整合のノード間のエッジを挿入するSpade-Guided加算攻撃。
どちらの攻撃もグラフレベルで動作し、モデル対応だが概念的にはシンプルであり、グラデーションを必要とせずに既存のGNNアーキテクチャにプラグインできる。
本稿では,スペクトル定式化,攻撃アルゴリズム,ベンチマーク実験について述べる。
関連論文リスト
- Relaxing Graph Transformers for Adversarial Attacks [49.450581960551276]
グラフトランスフォーマー(GT)は、いくつかのベンチマークでMessage-Passing GNNを上回り、その逆の堅牢性は明らかにされていない。
本研究では,(1)ランダムウォークPE,(2)ペアワイドショートパス,(3)スペクトル摂動に基づく3つの代表的なアーキテクチャを対象とすることで,これらの課題を克服する。
評価の結果, 破滅的に脆弱であり, 作業の重要性と適応攻撃の必要性を浮き彫りにする可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-16T14:24:58Z) - AGSOA:Graph Neural Network Targeted Attack Based on Average Gradient and Structure Optimization [16.681157857248436]
グラフニューラルネットワーク(GNN)は、グラフに小さな摂動を加えることでパフォーマンス低下を引き起こす敵攻撃に対して脆弱である。
本稿では、平均勾配計算と構造最適化モジュールで構成されるAGSOAと呼ばれるGNNに対する攻撃を提案する。
論文 参考訳(メタデータ) (2024-06-19T05:29:20Z) - Self-Guided Robust Graph Structure Refinement [37.235898707554284]
本稿では,GNNを敵攻撃から守るための自己誘導グラフ構造改善(GSR)フレームワークを提案する。
本稿では,非標的攻撃,標的攻撃,機能攻撃,eコマース詐欺,ノイズの多いノードラベルなど,様々なシナリオにおけるSG-GSRの有効性を実証する。
論文 参考訳(メタデータ) (2024-02-19T05:00:07Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - EDoG: Adversarial Edge Detection For Graph Neural Networks [17.969573886307906]
グラフニューラルネットワーク(GNN)は、バイオインフォマティクス、薬物設計、ソーシャルネットワークといった様々なタスクに広く応用されている。
近年の研究では、GNNは、微妙な摂動を加えることでノードやサブグラフの分類予測を誤認することを目的とした敵攻撃に弱いことが示されている。
本稿では,グラフ生成に基づく攻撃戦略の知識を必要とせず,汎用対向エッジ検出パイプラインEDoGを提案する。
論文 参考訳(メタデータ) (2022-12-27T20:42:36Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - BinarizedAttack: Structural Poisoning Attacks to Graph-based Anomaly
Detection [20.666171188140503]
グラフに基づく異常検出(GAD)は,グラフの強力な表現能力によって普及しつつある。
皮肉なことに、これらのGADツールは、データ間の関係を活用できるというユニークな利点のために、新たな攻撃面を公開する。
本稿では, この脆弱性を利用して, 代表的な回帰型GADシステムOddBallに対して, 標的となる新しいタイプの構造的中毒攻撃を設計する。
論文 参考訳(メタデータ) (2021-06-18T08:20:23Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。