論文の概要: Towards More Practical Adversarial Attacks on Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2006.05057v3
- Date: Wed, 27 Oct 2021 01:26:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-23 13:43:41.111233
- Title: Towards More Practical Adversarial Attacks on Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークのより実用的な逆攻撃に向けて
- Authors: Jiaqi Ma, Shuangrui Ding, Qiaozhu Mei
- Abstract要約: グラフニューラルネットワーク(GNN)に対するブラックボックス攻撃を,新規で現実的な制約の下で検討する。
我々は,GNNモデルの構造的帰納バイアスが,この種の攻撃に有効であることを示す。
- 参考スコア(独自算出の注目度): 14.78539966828287
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study the black-box attacks on graph neural networks (GNNs) under a novel
and realistic constraint: attackers have access to only a subset of nodes in
the network, and they can only attack a small number of them. A node selection
step is essential under this setup. We demonstrate that the structural
inductive biases of GNN models can be an effective source for this type of
attacks. Specifically, by exploiting the connection between the backward
propagation of GNNs and random walks, we show that the common gradient-based
white-box attacks can be generalized to the black-box setting via the
connection between the gradient and an importance score similar to PageRank. In
practice, we find attacks based on this importance score indeed increase the
classification loss by a large margin, but they fail to significantly increase
the mis-classification rate. Our theoretical and empirical analyses suggest
that there is a discrepancy between the loss and mis-classification rate, as
the latter presents a diminishing-return pattern when the number of attacked
nodes increases. Therefore, we propose a greedy procedure to correct the
importance score that takes into account of the diminishing-return pattern.
Experimental results show that the proposed procedure can significantly
increase the mis-classification rate of common GNNs on real-world data without
access to model parameters nor predictions.
- Abstract(参考訳): 我々は,グラフニューラルネットワーク(GNN)に対するブラックボックス攻撃を,新しい現実的な制約の下で調査する。攻撃者はネットワーク内のノードのサブセットにのみアクセスでき,少数のノードしか攻撃できない。
この設定ではノードの選択ステップが不可欠です。
我々は,GNNモデルの構造的帰納バイアスが,この種の攻撃に有効であることを示す。
具体的には、GNNの後方伝播とランダムウォークの接続を利用して、共通の勾配に基づくホワイトボックス攻撃を、勾配とPageRankに類似した重要スコアとの接続によりブラックボックス設定に一般化できることを示す。
実際、この重要度スコアに基づく攻撃は、実際には分類損失を大きく増加させるが、誤分類率を著しく増加させるには至っていない。
我々の理論的・実証的な分析は、攻撃ノード数が増加すると、損失と誤分類率の間には相違があることを示唆している。
そこで本研究では,回帰パターンの低下を考慮した重要度スコアの補正手法を提案する。
実験の結果,提案手法は,モデルパラメータや予測にアクセスせずに,実世界のデータ上での共通GNNの誤分類率を大幅に向上させることができることがわかった。
関連論文リスト
- Provable Robustness of (Graph) Neural Networks Against Data Poisoning and Backdoor Attacks [50.87615167799367]
グラフニューラルネットワーク(GNN)は、特定のグラフのノード特徴をターゲットとして、バックドアを含む有毒な攻撃に対して認証する。
コンボリューションベースのGNNとPageRankベースのGNNの最悪の動作におけるグラフ構造の役割とその接続性に関する基本的な知見を提供する。
論文 参考訳(メタデータ) (2024-07-15T16:12:51Z) - Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Sparse Vicious Attacks on Graph Neural Networks [3.246307337376473]
この研究は、GNNベースのリンク予測モデルに対する特定のホワイトボックス攻撃に焦点を当てている。
本稿では,このタイプのリンク予測攻撃をマウントする新しいフレームワークと手法であるSAVAGEを提案する。
実世界のデータセットと合成データセットを用いて行った実験は、SAVAGEを通じて実施された敵攻撃が実際に高い攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2022-09-20T12:51:24Z) - Adversarial Inter-Group Link Injection Degrades the Fairness of Graph
Neural Networks [15.116231694800787]
本稿では,公正性を低下させることを目的としたグラフニューラルネットワーク(GNN)に対する敵攻撃の存在と有効性を示す。
これらの攻撃は、GNNベースのノード分類において特定のノードのサブグループを不利にする可能性がある。
敵リンク注入がGNN予測の公平性を損なうのかを定性的および実験的に分析する。
論文 参考訳(メタデータ) (2022-09-13T12:46:57Z) - What Does the Gradient Tell When Attacking the Graph Structure [44.44204591087092]
本稿では,GNNのメッセージパッシング機構により,攻撃者がクラス間エッジを増大させる傾向があることを示す。
異なるノードを接続することで、攻撃者はより効果的にノード機能を破損させ、そのような攻撃をより有利にする。
本研究では,攻撃効率と非受容性のバランスを保ち,より優れた非受容性を実現するために攻撃効率を犠牲にする,革新的な攻撃損失を提案する。
論文 参考訳(メタデータ) (2022-08-26T15:45:20Z) - A Hard Label Black-box Adversarial Attack Against Graph Neural Networks [25.081630882605985]
我々は,グラフ構造の摂動によるグラフ分類のためのGNNに対する敵対的攻撃について,系統的研究を行った。
我々は、高い攻撃成功率を維持しながら、グラフ内で摂動するエッジの数を最小化する最適化問題として、我々の攻撃を定式化する。
実世界の3つのデータセットに対する実験結果から,クエリや摂動を少なくして,グラフ分類のための代表的GNNを効果的に攻撃できることが示された。
論文 参考訳(メタデータ) (2021-08-21T14:01:34Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Generating Adversarial Examples with Graph Neural Networks [26.74003742013481]
両手法の強みを生かしたグラフニューラルネットワーク(GNN)に基づく新たな攻撃を提案する。
PGDアタック,MI-FGSM,Carini,Wagnerアタックなど,最先端の敵攻撃に勝っていることを示す。
我々は、敵攻撃のより実証的な比較を可能にするために特別に設計された、新しい挑戦的なデータセットを提供する。
論文 参考訳(メタデータ) (2021-05-30T22:46:41Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。