論文の概要: Adversarial Attack on Large Scale Graph
- arxiv url: http://arxiv.org/abs/2009.03488v2
- Date: Thu, 6 May 2021 14:15:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 20:28:45.206624
- Title: Adversarial Attack on Large Scale Graph
- Title(参考訳): 大規模グラフに対する逆攻撃
- Authors: Jintang Li, Tao Xie, Liang Chen, Fenfang Xie, Xiangnan He, Zibin Zheng
- Abstract要約: 近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
- 参考スコア(独自算出の注目度): 58.741365277995044
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have shown that graph neural networks (GNNs) are vulnerable
against perturbations due to lack of robustness and can therefore be easily
fooled. Currently, most works on attacking GNNs are mainly using gradient
information to guide the attack and achieve outstanding performance. However,
the high complexity of time and space makes them unmanageable for large scale
graphs and becomes the major bottleneck that prevents the practical usage. We
argue that the main reason is that they have to use the whole graph for
attacks, resulting in the increasing time and space complexity as the data
scale grows. In this work, we propose an efficient Simplified Gradient-based
Attack (SGA) method to bridge this gap. SGA can cause the GNNs to misclassify
specific target nodes through a multi-stage attack framework, which needs only
a much smaller subgraph. In addition, we present a practical metric named
Degree Assortativity Change (DAC) to measure the impacts of adversarial attacks
on graph data. We evaluate our attack method on four real-world graph networks
by attacking several commonly used GNNs. The experimental results demonstrate
that SGA can achieve significant time and memory efficiency improvements while
maintaining competitive attack performance compared to state-of-art attack
techniques. Codes are available via: https://github.com/EdisonLeeeee/SGAttack.
- Abstract(参考訳): 近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いため、簡単に騙せることが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
しかし、時間と空間の複雑さが高いため、大規模なグラフでは管理できなくなり、実用的利用を妨げる主要なボトルネックとなる。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本研究では,このギャップを橋渡しするための簡便な勾配ベースアタック(sga)手法を提案する。
SGAは、GNNが特定のターゲットノードを多段階攻撃フレームワークによって誤って分類する可能性がある。
さらに,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
我々は4つの実世界のグラフネットワークに対する攻撃手法を、よく使われるGNNを攻撃することによって評価する。
実験により,SGAは,最先端攻撃技術と比較して,競合攻撃性能を維持しつつ,時間とメモリ効率を著しく向上できることを示した。
コードはhttps://github.com/EdisonLeeeee/SGAttack.comから入手できる。
関連論文リスト
- Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - GUAP: Graph Universal Attack Through Adversarial Patching [12.484396767037925]
グラフニューラルネットワーク(GNN)は、ノード分類タスクのための効果的なディープラーニングモデルのクラスである。
本研究では,新たなノードとエッジでグラフを逆パッチすることで,より容易な攻撃を見極める。
我々はGUAPと呼ばれるアルゴリズムを開発し、高い攻撃成功率を達成できるが、予測精度は維持できる。
論文 参考訳(メタデータ) (2023-01-04T18:02:29Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Robustness of Graph Neural Networks at Scale [63.45769413975601]
我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:31:17Z) - A Hard Label Black-box Adversarial Attack Against Graph Neural Networks [25.081630882605985]
我々は,グラフ構造の摂動によるグラフ分類のためのGNNに対する敵対的攻撃について,系統的研究を行った。
我々は、高い攻撃成功率を維持しながら、グラフ内で摂動するエッジの数を最小化する最適化問題として、我々の攻撃を定式化する。
実世界の3つのデータセットに対する実験結果から,クエリや摂動を少なくして,グラフ分類のための代表的GNNを効果的に攻撃できることが示された。
論文 参考訳(メタデータ) (2021-08-21T14:01:34Z) - Efficient, Direct, and Restricted Black-Box Graph Evasion Attacks to
Any-Layer Graph Neural Networks via Influence Function [62.89388227354517]
グラフデータから学習する主流手法であるグラフニューラルネットワーク(GNN)は、グラフ回避攻撃に対して脆弱である。
既存の作業には、1)2層GNNを直接攻撃すること、2)非効率であること、3)GNNモデルパラメータの完全あるいは一部を知る必要があること、の2つの欠点の少なくとも1つがある。
本報告では,エフェクトベースの非効率,直接的,制限されたブラックボックス回避攻撃を,幻影層GNNに対して提案する。
論文 参考訳(メタデータ) (2020-09-01T03:24:51Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z) - Scalable Attack on Graph Data by Injecting Vicious Nodes [44.56647129718062]
グラフ畳み込みネットワーク(GCN)は、注意深い設計の攻撃に対して脆弱である。
我々は、より実用的な攻撃シナリオを考慮した、よりスケーラブルなフレームワークであるApproximate Fast Gradient Sign Method (AFGSM)を開発した。
提案手法はGCNの分類精度を大幅に低減し,攻撃性能を損なうことなく既存の手法よりもはるかに高速である。
論文 参考訳(メタデータ) (2020-04-22T02:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。