論文の概要: Pruning Graphs by Adversarial Robustness Evaluation to Strengthen GNN Defenses
- arxiv url: http://arxiv.org/abs/2512.22128v1
- Date: Sat, 29 Nov 2025 20:15:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-04 08:45:17.05611
- Title: Pruning Graphs by Adversarial Robustness Evaluation to Strengthen GNN Defenses
- Title(参考訳): 対向ロバスト性評価によるGNN防御強化図の作成
- Authors: Yongyu Wang,
- Abstract要約: グラフニューラルネットワーク(GNN)は,グラフ構造化データ学習の主流パラダイムとして浮上している。
本研究では, グラフの有害成分を明確に識別し, 除去するために, 対向的ロバストネス評価を利用するプルーニングフレームワークを提案する。
頑健性スコアをガイダンスとして使用することにより,モデルの信頼性を低下させる可能性が最も高いエッジを選択的にプーンし,よりクリーンでレジリエントなグラフ表現が得られる。
- 参考スコア(独自算出の注目度): 1.066048003460524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have emerged as a dominant paradigm for learning on graph-structured data, thanks to their ability to jointly exploit node features and relational information encoded in the graph topology. This joint modeling, however, also introduces a critical weakness: perturbations or noise in either the structure or the features can be amplified through message passing, making GNNs highly vulnerable to adversarial attacks and spurious connections. In this work, we introduce a pruning framework that leverages adversarial robustness evaluation to explicitly identify and remove fragile or detrimental components of the graph. By using robustness scores as guidance, our method selectively prunes edges that are most likely to degrade model reliability, thereby yielding cleaner and more resilient graph representations. We instantiate this framework on three representative GNN architectures and conduct extensive experiments on benchmarks. The experimental results show that our approach can significantly enhance the defense capability of GNNs in the high-perturbation regime.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフトポロジに符号化されたノードの特徴とリレーショナル情報を共同で活用する能力によって、グラフ構造化データを学ぶための支配的なパラダイムとして登場した。
しかし、この共同モデリングは、重要な弱点ももたらしている: 構造や特徴の摂動やノイズは、メッセージパッシングによって増幅できるため、GNNは敵の攻撃や突発的な接続に対して非常に脆弱である。
本研究では, グラフの脆弱成分や有害成分を明確に識別し, 除去するために, 対向的ロバスト性評価を利用するプルーニングフレームワークを提案する。
頑健性スコアをガイダンスとして使用することにより,モデルの信頼性を低下させる可能性が最も高いエッジを選択的にプーンし,よりクリーンでレジリエントなグラフ表現を実現する。
3つの代表的GNNアーキテクチャ上でこのフレームワークをインスタンス化し、ベンチマークで広範な実験を行う。
実験結果から,高摂動環境下でのGNNの防御能力を著しく向上させることができることが示された。
関連論文リスト
- Unifying Adversarial Perturbation for Graph Neural Networks [46.74046710620528]
本稿では,ノードの特徴やグラフ構造に対する敵対攻撃に対するグラフニューラルネットワーク(GNN)の脆弱性について検討する。
本稿では、敵の摂動と訓練を統合したPerturbEmbeddingを提案し、そのような攻撃に対するGNNの弾力性を高める。
我々は、PerturbEmbeddingがGNNの堅牢性と一般化能力の両方を大幅に改善し、既存の手法よりも優れていることを示した。
論文 参考訳(メタデータ) (2025-08-30T06:53:36Z) - On the Relationship Between Robustness and Expressivity of Graph Neural Networks [7.161966906570077]
グラフニューラルネットワーク(GNN)はビットフリップ攻撃(BFA)に対して脆弱である
建築的特徴, グラフ特性, 相互作用の影響を研究するための分析フレームワークを提案する。
我々は、データセット上でGNN表現性を劣化させるために必要なビットフリップ数に関する理論的境界を導出する。
論文 参考訳(メタデータ) (2025-04-18T16:38:33Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Reliable Representations Make A Stronger Defender: Unsupervised
Structure Refinement for Robust GNN [36.045702771828736]
グラフニューラルネットワーク(GNN)は、グラフデータ上でのタスクの繁栄に成功している。
近年の研究では、グラフ構造を悪質に修正することで、攻撃者がGNNの性能を壊滅的に低下させることができることが示されている。
グラフ構造を最適化するための教師なしパイプラインSTABLEを提案する。
論文 参考訳(メタデータ) (2022-06-30T10:02:32Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。