論文の概要: A Hard Label Black-box Adversarial Attack Against Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2108.09513v1
- Date: Sat, 21 Aug 2021 14:01:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-24 15:26:58.478126
- Title: A Hard Label Black-box Adversarial Attack Against Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークに対するハードラベルブラックボックスの逆攻撃
- Authors: Jiaming Mu, Binghui Wang, Qi Li, Kun Sun, Mingwei Xu, Zhuotao Liu
- Abstract要約: 我々は,グラフ構造の摂動によるグラフ分類のためのGNNに対する敵対的攻撃について,系統的研究を行った。
我々は、高い攻撃成功率を維持しながら、グラフ内で摂動するエッジの数を最小化する最適化問題として、我々の攻撃を定式化する。
実世界の3つのデータセットに対する実験結果から,クエリや摂動を少なくして,グラフ分類のための代表的GNNを効果的に攻撃できることが示された。
- 参考スコア(独自算出の注目度): 25.081630882605985
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Graph Neural Networks (GNNs) have achieved state-of-the-art performance in
various graph structure related tasks such as node classification and graph
classification. However, GNNs are vulnerable to adversarial attacks. Existing
works mainly focus on attacking GNNs for node classification; nevertheless, the
attacks against GNNs for graph classification have not been well explored.
In this work, we conduct a systematic study on adversarial attacks against
GNNs for graph classification via perturbing the graph structure. In
particular, we focus on the most challenging attack, i.e., hard label black-box
attack, where an attacker has no knowledge about the target GNN model and can
only obtain predicted labels through querying the target model.To achieve this
goal, we formulate our attack as an optimization problem, whose objective is to
minimize the number of edges to be perturbed in a graph while maintaining the
high attack success rate. The original optimization problem is intractable to
solve, and we relax the optimization problem to be a tractable one, which is
solved with theoretical convergence guarantee. We also design a coarse-grained
searching algorithm and a query-efficient gradient computation algorithm to
decrease the number of queries to the target GNN model. Our experimental
results on three real-world datasets demonstrate that our attack can
effectively attack representative GNNs for graph classification with less
queries and perturbations. We also evaluate the effectiveness of our attack
under two defenses: one is well-designed adversarial graph detector and the
other is that the target GNN model itself is equipped with a defense to prevent
adversarial graph generation. Our experimental results show that such defenses
are not effective enough, which highlights more advanced defenses.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,ノード分類やグラフ分類などの様々なグラフ構造関連タスクにおいて,最先端のパフォーマンスを実現している。
しかし、GNNは敵の攻撃に弱い。
既存の研究は主にノード分類のためのGNNに対する攻撃に焦点を当てているが、グラフ分類のためのGNNに対する攻撃は十分に研究されていない。
本研究では,グラフ構造を摂動することで,グラフ分類のためのGNNに対する敵対攻撃を系統的に研究する。
特に、攻撃者がターゲットGNNモデルについて知識がなく、ターゲットモデルに問い合わせることによって予測されたラベルしか取得できないハードラベルブラックボックス攻撃(ハードラベルブラックボックス攻撃)に注目し、この目的を達成するために、高い攻撃成功率を維持しながらグラフに乱されるエッジの数を最小化する最適化問題として攻撃を定式化する。
元の最適化問題の解法は難解であり、この最適化問題を理論的収束保証により解き放つことができるように緩和する。
また、ターゲットGNNモデルに対するクエリ数を減少させるために、粗粒度探索アルゴリズムとクエリ効率勾配計算アルゴリズムを設計する。
実世界の3つのデータセットに対する実験結果から,クエリや摂動の少ないグラフ分類において,GNNを効果的に攻撃できることが示された。
また,本攻撃の有効性を2つの防御条件下で評価した。1つは高度に設計された逆グラフ検出器であり、もう1つはターゲットのgnnモデル自体が逆グラフ生成を防止する防御機能を備えていることである。
実験の結果,このような防御効果は十分ではないことが明らかとなった。
関連論文リスト
- Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Bandits for Structure Perturbation-based Black-box Attacks to Graph
Neural Networks with Theoretical Guarantees [60.61846004535707]
グラフニューラルネットワーク(GNN)は多くのグラフベースのタスクで最先端のパフォーマンスを達成した。
攻撃者はグラフ構造をわずかに摂動させることでGNNモデルを誤解させることができる。
本稿では,構造摂動を伴うGNNに対するブラックボックス攻撃と理論的保証について考察する。
論文 参考訳(メタデータ) (2022-05-07T04:17:25Z) - Robustness of Graph Neural Networks at Scale [63.45769413975601]
我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:31:17Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Black-box Gradient Attack on Graph Neural Networks: Deeper Insights in
Graph-based Attack and Defense [3.3504365823045035]
グラフニューラルネットワーク(gnns)は、さまざまなグラフ表現学習タスクにおける最先端のパフォーマンスにより、大きな注目を集めている。
近年の研究では、GNNは敵の攻撃に弱いことが判明している。
攻撃者はグラフ構造やノード機能を意図的に乱すことで、GNNを騙すことができる。
既存の攻撃アルゴリズムの多くは、実際の世界では実用的ではないモデルパラメータまたはトレーニングデータへのアクセスを必要とする。
論文 参考訳(メタデータ) (2021-04-30T15:30:47Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z) - Adversarial Attack on Hierarchical Graph Pooling Neural Networks [14.72310134429243]
グラフ分類タスクにおけるグラフニューラルネットワーク(GNN)の堅牢性について検討する。
本稿では,グラフ分類タスクに対する逆攻撃フレームワークを提案する。
我々の知る限りでは、これは階層的なGNNベースのグラフ分類モデルに対する敵攻撃に関する最初の研究である。
論文 参考訳(メタデータ) (2020-05-23T16:19:47Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。