論文の概要: Bandits for Structure Perturbation-based Black-box Attacks to Graph
Neural Networks with Theoretical Guarantees
- arxiv url: http://arxiv.org/abs/2205.03546v1
- Date: Sat, 7 May 2022 04:17:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-15 11:25:48.699354
- Title: Bandits for Structure Perturbation-based Black-box Attacks to Graph
Neural Networks with Theoretical Guarantees
- Title(参考訳): 理論的保証付きグラフニューラルネットワークに対する構造摂動型ブラックボックス攻撃の帯域
- Authors: Binghui Wang, Youqi Li, and Pan Zhou
- Abstract要約: グラフニューラルネットワーク(GNN)は多くのグラフベースのタスクで最先端のパフォーマンスを達成した。
攻撃者はグラフ構造をわずかに摂動させることでGNNモデルを誤解させることができる。
本稿では,構造摂動を伴うGNNに対するブラックボックス攻撃と理論的保証について考察する。
- 参考スコア(独自算出の注目度): 60.61846004535707
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks (GNNs) have achieved state-of-the-art performance in
many graph-based tasks such as node classification and graph classification.
However, many recent works have demonstrated that an attacker can mislead GNN
models by slightly perturbing the graph structure. Existing attacks to GNNs are
either under the less practical threat model where the attacker is assumed to
access the GNN model parameters, or under the practical black-box threat model
but consider perturbing node features that are shown to be not enough
effective. In this paper, we aim to bridge this gap and consider black-box
attacks to GNNs with structure perturbation as well as with theoretical
guarantees. We propose to address this challenge through bandit techniques.
Specifically, we formulate our attack as an online optimization with bandit
feedback. This original problem is essentially NP-hard due to the fact that
perturbing the graph structure is a binary optimization problem. We then
propose an online attack based on bandit optimization which is proven to be
{sublinear} to the query number $T$, i.e., $\mathcal{O}(\sqrt{N}T^{3/4})$ where
$N$ is the number of nodes in the graph. Finally, we evaluate our proposed
attack by conducting experiments over multiple datasets and GNN models. The
experimental results on various citation graphs and image graphs show that our
attack is both effective and efficient. Source code is available
at~\url{https://github.com/Metaoblivion/Bandit_GNN_Attack}
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は、ノード分類やグラフ分類など、多くのグラフベースのタスクで最先端のパフォーマンスを達成している。
しかし、近年の多くの研究は、攻撃者がグラフ構造をわずかに摂動させることでGNNモデルを誤認できることを示した。
既存のGNNに対する攻撃は、攻撃者がGNNモデルパラメータにアクセスすると仮定されるような実用的でない脅威モデルか、あるいは実用的なブラックボックス脅威モデルの下では、十分な効果がないと思われる摂動ノードの特徴を考慮する。
本稿では,このギャップを埋め,構造摂動を伴うGNNに対するブラックボックス攻撃を理論的保証とともに検討することを目的とする。
我々は,この課題にバンディット技術を用いて対処することを提案する。
具体的には、攻撃をランディットフィードバックによるオンライン最適化として定式化する。
この元の問題は、グラフ構造の摂動が二進最適化問題であるという事実から、本質的にNPハードである。
次に,帯域最適化に基づくオンライン攻撃を提案する。これはクエリ番号$T$,すなわち$\mathcal{O}(\sqrt{N}T^{3/4})$に対して,$N$はグラフ内のノード数である。
最後に,複数のデータセットとgnnモデル上で実験を行い,提案手法の評価を行った。
様々な引用グラフと画像グラフの実験結果から,我々の攻撃は効果的かつ効果的であることが示された。
ソースコードは~\url{https://github.com/Metaoblivion/Bandit_GNN_Attack} で入手できる。
関連論文リスト
- Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - A Hard Label Black-box Adversarial Attack Against Graph Neural Networks [25.081630882605985]
我々は,グラフ構造の摂動によるグラフ分類のためのGNNに対する敵対的攻撃について,系統的研究を行った。
我々は、高い攻撃成功率を維持しながら、グラフ内で摂動するエッジの数を最小化する最適化問題として、我々の攻撃を定式化する。
実世界の3つのデータセットに対する実験結果から,クエリや摂動を少なくして,グラフ分類のための代表的GNNを効果的に攻撃できることが示された。
論文 参考訳(メタデータ) (2021-08-21T14:01:34Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Black-box Gradient Attack on Graph Neural Networks: Deeper Insights in
Graph-based Attack and Defense [3.3504365823045035]
グラフニューラルネットワーク(gnns)は、さまざまなグラフ表現学習タスクにおける最先端のパフォーマンスにより、大きな注目を集めている。
近年の研究では、GNNは敵の攻撃に弱いことが判明している。
攻撃者はグラフ構造やノード機能を意図的に乱すことで、GNNを騙すことができる。
既存の攻撃アルゴリズムの多くは、実際の世界では実用的ではないモデルパラメータまたはトレーニングデータへのアクセスを必要とする。
論文 参考訳(メタデータ) (2021-04-30T15:30:47Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z) - Efficient, Direct, and Restricted Black-Box Graph Evasion Attacks to
Any-Layer Graph Neural Networks via Influence Function [62.89388227354517]
グラフデータから学習する主流手法であるグラフニューラルネットワーク(GNN)は、グラフ回避攻撃に対して脆弱である。
既存の作業には、1)2層GNNを直接攻撃すること、2)非効率であること、3)GNNモデルパラメータの完全あるいは一部を知る必要があること、の2つの欠点の少なくとも1つがある。
本報告では,エフェクトベースの非効率,直接的,制限されたブラックボックス回避攻撃を,幻影層GNNに対して提案する。
論文 参考訳(メタデータ) (2020-09-01T03:24:51Z) - DefenseVGAE: Defending against Adversarial Attacks on Graph Data via a
Variational Graph Autoencoder [22.754141951413786]
グラフニューラルネットワーク(GNN)は、グラフデータ上のタスクに対して顕著なパフォーマンスを達成する。
近年の研究では、敵対的な構造的摂動に非常に弱いことが示されており、その結果は信頼できない。
本稿では,変分グラフオートエンコーダ(VGAE)を利用した新しいフレームワークであるDefenseVGAEを提案する。
論文 参考訳(メタデータ) (2020-06-16T03:30:23Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。