論文の概要: Black-box Gradient Attack on Graph Neural Networks: Deeper Insights in
Graph-based Attack and Defense
- arxiv url: http://arxiv.org/abs/2104.15061v1
- Date: Fri, 30 Apr 2021 15:30:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 14:48:45.887397
- Title: Black-box Gradient Attack on Graph Neural Networks: Deeper Insights in
Graph-based Attack and Defense
- Title(参考訳): グラフニューラルネットワークに対するブラックボックス勾配攻撃:グラフに基づく攻撃と防御に関する深い洞察
- Authors: Haoxi Zhan, Xiaobing Pei
- Abstract要約: グラフニューラルネットワーク(gnns)は、さまざまなグラフ表現学習タスクにおける最先端のパフォーマンスにより、大きな注目を集めている。
近年の研究では、GNNは敵の攻撃に弱いことが判明している。
攻撃者はグラフ構造やノード機能を意図的に乱すことで、GNNを騙すことができる。
既存の攻撃アルゴリズムの多くは、実際の世界では実用的ではないモデルパラメータまたはトレーニングデータへのアクセスを必要とする。
- 参考スコア(独自算出の注目度): 3.3504365823045035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have received significant attention due to their
state-of-the-art performance on various graph representation learning tasks.
However, recent studies reveal that GNNs are vulnerable to adversarial attacks,
i.e. an attacker is able to fool the GNNs by perturbing the graph structure or
node features deliberately. While being able to successfully decrease the
performance of GNNs, most existing attacking algorithms require access to
either the model parameters or the training data, which is not practical in the
real world.
In this paper, we develop deeper insights into the Mettack algorithm, which
is a representative grey-box attacking method, and then we propose a
gradient-based black-box attacking algorithm. Firstly, we show that the Mettack
algorithm will perturb the edges unevenly, thus the attack will be highly
dependent on a specific training set. As a result, a simple yet useful strategy
to defense against Mettack is to train the GNN with the validation set.
Secondly, to overcome the drawbacks, we propose the Black-Box Gradient Attack
(BBGA) algorithm. Extensive experiments demonstrate that out proposed method is
able to achieve stable attack performance without accessing the training sets
of the GNNs. Further results shows that our proposed method is also applicable
when attacking against various defense methods.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、様々なグラフ表現学習タスクにおける最先端の性能のために注目されている。
しかし、近年の研究では、GNNは敵の攻撃に弱いことが判明している。
攻撃者はグラフ構造やノード機能を意図的に乱すことでGNNを騙すことができる。
GNNの性能をうまく低下させることができるが、既存の攻撃アルゴリズムのほとんどは、実際の世界では実用的ではないモデルパラメータまたはトレーニングデータにアクセスする必要がある。
本稿では,代表的なグレーボックス攻撃法であるMettackアルゴリズムについて,より深い知見を得た上で,勾配に基づくブラックボックス攻撃アルゴリズムを提案する。
まず,メッタックアルゴリズムがエッジを不均一に摂動させるため,特定のトレーニングセットに強く依存することを示す。
その結果、Mettackに対して防御するためのシンプルだが有用な戦略は、検証セットでGNNをトレーニングすることだ。
次に,この欠点を克服するために,ブラックボックス勾配攻撃 (bbga) アルゴリズムを提案する。
広範な実験により,提案手法がgnnのトレーニングセットにアクセスせずに,安定した攻撃性能を達成できることが実証された。
さらに, 本手法は, 各種防衛手法に対する攻撃にも適用可能であることを示す。
関連論文リスト
- Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Hard Label Black Box Node Injection Attack on Graph Neural Networks [7.176182084359572]
グラフニューラルネットワークにおける非ターゲット型ハードラベルブラックボックスノードインジェクション攻撃を提案する。
我々の攻撃は、既存のエッジ摂動攻撃に基づいており、ノード注入攻撃を定式化するために最適化プロセスを制限する。
本研究では,3つのデータセットを用いて攻撃性能を評価する。
論文 参考訳(メタデータ) (2023-11-22T09:02:04Z) - Bandits for Structure Perturbation-based Black-box Attacks to Graph
Neural Networks with Theoretical Guarantees [60.61846004535707]
グラフニューラルネットワーク(GNN)は多くのグラフベースのタスクで最先端のパフォーマンスを達成した。
攻撃者はグラフ構造をわずかに摂動させることでGNNモデルを誤解させることができる。
本稿では,構造摂動を伴うGNNに対するブラックボックス攻撃と理論的保証について考察する。
論文 参考訳(メタデータ) (2022-05-07T04:17:25Z) - Robustness of Graph Neural Networks at Scale [63.45769413975601]
我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:31:17Z) - A Hard Label Black-box Adversarial Attack Against Graph Neural Networks [25.081630882605985]
我々は,グラフ構造の摂動によるグラフ分類のためのGNNに対する敵対的攻撃について,系統的研究を行った。
我々は、高い攻撃成功率を維持しながら、グラフ内で摂動するエッジの数を最小化する最適化問題として、我々の攻撃を定式化する。
実世界の3つのデータセットに対する実験結果から,クエリや摂動を少なくして,グラフ分類のための代表的GNNを効果的に攻撃できることが示された。
論文 参考訳(メタデータ) (2021-08-21T14:01:34Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。