論文の概要: Evasion Attacks to Graph Neural Networks via Influence Function
- arxiv url: http://arxiv.org/abs/2009.00203v2
- Date: Sat, 12 Sep 2020 20:50:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 01:54:18.597475
- Title: Evasion Attacks to Graph Neural Networks via Influence Function
- Title(参考訳): 影響関数によるグラフニューラルネットワークへの侵入攻撃
- Authors: Binghui Wang, Tianxiang Zhou, Minhua Lin, Pan Zhou, Ang Li, Meng Pang,
Cai Fu, Hai Li, Yiran Chen
- Abstract要約: グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクで最先端のパフォーマンスを達成した。
GNNへの侵入攻撃にはいくつかの大きな欠点がある。
本稿では,GNNに対する影響に基づく回避攻撃を提案する。
- 参考スコア(独自算出の注目度): 80.79692892931621
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have achieved state-of-the-art performance in
many graph-related tasks, e.g., node classification. However, recent works show
that GNNs are vulnerable to evasion attacks, i.e., an attacker can slightly
perturb the graph structure to fool GNN models. Existing evasion attacks to
GNNs have several key drawbacks: 1) they are limited to attack two-layer GNNs;
2) they are not efficient; or/and 3) they need to know GNN model parameters. We
address the above drawbacks in this paper and propose an influence-based
evasion attack against GNNs. Specifically, we first introduce two influence
functions, i.e., feature-label influence and label influence, that are defined
on GNNs and label propagation (LP), respectively. Then, we build a strong
connection between GNNs and LP in terms of influence. Next, we reformulate the
evasion attack against GNNs to be related to calculating label influence on LP,
which is applicable to multi-layer GNNs and does not need to know the GNN
model. We also propose an efficient algorithm to calculate label influence.
Finally, we evaluate our influence-based attack on three benchmark graph
datasets. Our experimental results show that, compared to state-of-the-art
attack, our attack can achieve comparable attack performance, but has a 5-50x
speedup when attacking two-layer GNNs. Moreover, our attack is effective to
attack multi-layer GNNs.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、ノード分類など、多くのグラフ関連タスクにおいて最先端のパフォーマンスを達成した。
しかし、最近の研究では、GNNは回避攻撃に弱いことが示されており、すなわち、攻撃者はグラフ構造をわずかに乱し、GNNモデルを騙すことができる。
GNNへの既存の回避攻撃には、いくつかの大きな欠点がある。
1) 2層GNNの攻撃に限られている。
2)効率的でない,又は/及び
3) GNNモデルのパラメータを知る必要がある。
本稿では,上記の欠点に対処し,gnnに対する影響に基づく回避攻撃を提案する。
具体的には、まず、GNNとラベル伝搬(LP)に定義された2つの影響関数、すなわち特徴ラベルの影響とラベルの影響を導入する。
そして、GNNとLPの強いつながりを、影響力の観点から構築する。
次に,GNN モデルを知る必要のない多層 GNN に適用可能な LP 上のラベルの影響を計算するために,GNN に対する回避攻撃を再構成する。
また,ラベルの影響を計算するアルゴリズムを提案する。
最後に、3つのベンチマークグラフデータセットに対する影響に基づく攻撃を評価する。
実験の結果, 最先端攻撃と比較して, 攻撃性能は同等であるが, 2層GNN攻撃時の速度は5-50倍に向上した。
さらに,本攻撃は多層GNN攻撃に有効である。
関連論文リスト
- Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Bandits for Structure Perturbation-based Black-box Attacks to Graph
Neural Networks with Theoretical Guarantees [60.61846004535707]
グラフニューラルネットワーク(GNN)は多くのグラフベースのタスクで最先端のパフォーマンスを達成した。
攻撃者はグラフ構造をわずかに摂動させることでGNNモデルを誤解させることができる。
本稿では,構造摂動を伴うGNNに対するブラックボックス攻撃と理論的保証について考察する。
論文 参考訳(メタデータ) (2022-05-07T04:17:25Z) - Robustness of Graph Neural Networks at Scale [63.45769413975601]
我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:31:17Z) - Adapting Membership Inference Attacks to GNN for Graph Classification:
Approaches and Implications [32.631077336656936]
グラフニューラルネットワーク(GNN)に対するメンバーシップ推論攻撃(MIA)は、深刻なプライバシー上の懸念を引き起こす。
グラフレベル分類のためのGNNに対するMIAの第一歩を踏み出します。
我々は、異なる敵の能力から、トレーニングベースの攻撃としきい値ベースの攻撃という2つのタイプの攻撃を提示し、実装する。
論文 参考訳(メタデータ) (2021-10-17T08:41:21Z) - A Hard Label Black-box Adversarial Attack Against Graph Neural Networks [25.081630882605985]
我々は,グラフ構造の摂動によるグラフ分類のためのGNNに対する敵対的攻撃について,系統的研究を行った。
我々は、高い攻撃成功率を維持しながら、グラフ内で摂動するエッジの数を最小化する最適化問題として、我々の攻撃を定式化する。
実世界の3つのデータセットに対する実験結果から,クエリや摂動を少なくして,グラフ分類のための代表的GNNを効果的に攻撃できることが示された。
論文 参考訳(メタデータ) (2021-08-21T14:01:34Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。