論文の概要: Unifying Adversarial Perturbation for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2509.00387v1
- Date: Sat, 30 Aug 2025 06:53:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 15:17:03.20925
- Title: Unifying Adversarial Perturbation for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおける逆摂動の統一化
- Authors: Jinluan Yang, Ruihao Zhang, Zhengyu Chen, Fei Wu, Kun Kuang,
- Abstract要約: 本稿では,ノードの特徴やグラフ構造に対する敵対攻撃に対するグラフニューラルネットワーク(GNN)の脆弱性について検討する。
本稿では、敵の摂動と訓練を統合したPerturbEmbeddingを提案し、そのような攻撃に対するGNNの弾力性を高める。
我々は、PerturbEmbeddingがGNNの堅牢性と一般化能力の両方を大幅に改善し、既存の手法よりも優れていることを示した。
- 参考スコア(独自算出の注目度): 46.74046710620528
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper studies the vulnerability of Graph Neural Networks (GNNs) to adversarial attacks on node features and graph structure. Various methods have implemented adversarial training to augment graph data, aiming to bolster the robustness and generalization of GNNs. These methods typically involve applying perturbations to the node feature, weights, or graph structure and subsequently minimizing the loss by learning more robust graph model parameters under the adversarial perturbations. Despite the effectiveness of adversarial training in enhancing GNNs' robustness and generalization abilities, its application has been largely confined to specific datasets and GNN types. In this paper, we propose a novel method, PerturbEmbedding, that integrates adversarial perturbation and training, enhancing GNNs' resilience to such attacks and improving their generalization ability. PerturbEmbedding performs perturbation operations directly on every hidden embedding of GNNs and provides a unified framework for most existing perturbation strategies/methods. We also offer a unified perspective on the forms of perturbations, namely random and adversarial perturbations. Through experiments on various datasets using different backbone models, we demonstrate that PerturbEmbedding significantly improves both the robustness and generalization abilities of GNNs, outperforming existing methods. The rejection of both random (non-targeted) and adversarial (targeted) perturbations further enhances the backbone model's performance.
- Abstract(参考訳): 本稿では,ノードの特徴やグラフ構造に対する敵対攻撃に対するグラフニューラルネットワーク(GNN)の脆弱性について検討する。
GNNの堅牢性と一般化を促進すべく,グラフデータを拡張するための敵対的トレーニングを様々な方法で実施している。
これらの手法は通常、ノードの特徴、重み、グラフ構造に摂動を適用することを含み、その後、敵の摂動の下でより堅牢なグラフモデルパラメータを学習することによって損失を最小化する。
GNNの堅牢性と一般化能力を高めるための敵対的トレーニングの有効性にもかかわらず、その応用は特定のデータセットやGNNタイプに限られている。
本稿では, 敵の摂動と訓練を統合し, 攻撃に対するGNNの弾力性を高め, 一般化能力を向上させる新しい手法であるPerturbEmbeddingを提案する。
PerturbEmbeddingは、GNNのすべての隠れ埋め込みに直接摂動操作を行い、既存の摂動戦略/メソッドの統一フレームワークを提供する。
また、摂動の形式、すなわちランダムな摂動と対角的な摂動について統一的な視点を提供する。
異なるバックボーンモデルを用いた各種データセットの実験を通して、PerturbEmbeddingはGNNの堅牢性と一般化能力の両方を著しく改善し、既存の手法より優れていることを示す。
ランダム(非標的)と逆(標的)の摂動の両方の拒絶は、バックボーンモデルの性能をさらに向上させる。
関連論文リスト
- HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - HC-Ref: Hierarchical Constrained Refinement for Robust Adversarial
Training of GNNs [7.635985143883581]
コンピュータビジョンにおける敵の攻撃に対する最も効果的な防御機構の1つとされる敵の訓練は、GNNの堅牢性を高めるという大きな約束を持っている。
本稿では,GNNと下流分類器の対摂動性を高める階層的制約改善フレームワーク(HC-Ref)を提案する。
論文 参考訳(メタデータ) (2023-12-08T07:32:56Z) - Resilient Graph Neural Networks: A Coupled Dynamical Systems Approach [12.856220339384269]
グラフニューラルネットワーク(GNN)は、さまざまなグラフベースのタスクに対処するための重要なコンポーネントとして、自らを確立している。
彼らの顕著な成功にもかかわらず、GNNは相変わらず敵の攻撃の形で摂動を入力できる。
本稿では, 連成力学系のレンズを用いて, 対向摂動に対するGNNの強化手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T20:06:48Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - CAP: Co-Adversarial Perturbation on Weights and Features for Improving
Generalization of Graph Neural Networks [59.692017490560275]
敵の訓練は、敵の攻撃に対するモデルの堅牢性を改善するために広く実証されてきた。
グラフ解析問題におけるGNNの一般化能力をどのように改善するかは、まだ不明である。
我々は、重みと特徴量の観点から共振器摂動(CAP)最適化問題を構築し、重みと特徴の損失を交互に平らにする交互対振器摂動アルゴリズムを設計する。
論文 参考訳(メタデータ) (2021-10-28T02:28:13Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。