論文の概要: Let Graph be the Go Board: Gradient-free Node Injection Attack for Graph
Neural Networks via Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2211.10782v1
- Date: Sat, 19 Nov 2022 19:37:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 22:55:32.153559
- Title: Let Graph be the Go Board: Gradient-free Node Injection Attack for Graph
Neural Networks via Reinforcement Learning
- Title(参考訳): let graph be the go board: 強化学習によるグラフニューラルネットワークのための勾配なしノードインジェクション攻撃
- Authors: Mingxuan Ju, Yujie Fan, Chuxu Zhang, Yanfang Ye
- Abstract要約: そこで我々は,ブラックボックスノードインジェクション攻撃の問題を,潜在的に誤解を招くサロゲートモデルをトレーニングすることなく検討した。
被害者のモデルを直接クエリすることで、G2A2Cは極めて限られた攻撃予算で非常に悪意のあるノードを注入することを学ぶ。
提案したG2A2Cは,既存の攻撃者よりも優れた性能を示す。
- 参考スコア(独自算出の注目度): 37.4570186471298
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have drawn significant attentions over the years
and been broadly applied to essential applications requiring solid robustness
or vigorous security standards, such as product recommendation and user
behavior modeling. Under these scenarios, exploiting GNN's vulnerabilities and
further downgrading its performance become extremely incentive for adversaries.
Previous attackers mainly focus on structural perturbations or node injections
to the existing graphs, guided by gradients from the surrogate models. Although
they deliver promising results, several limitations still exist. For the
structural perturbation attack, to launch a proposed attack, adversaries need
to manipulate the existing graph topology, which is impractical in most
circumstances. Whereas for the node injection attack, though being more
practical, current approaches require training surrogate models to simulate a
white-box setting, which results in significant performance downgrade when the
surrogate architecture diverges from the actual victim model. To bridge these
gaps, in this paper, we study the problem of black-box node injection attack,
without training a potentially misleading surrogate model. Specifically, we
model the node injection attack as a Markov decision process and propose
Gradient-free Graph Advantage Actor Critic, namely G2A2C, a reinforcement
learning framework in the fashion of advantage actor critic. By directly
querying the victim model, G2A2C learns to inject highly malicious nodes with
extremely limited attacking budgets, while maintaining a similar node feature
distribution. Through our comprehensive experiments over eight acknowledged
benchmark datasets with different characteristics, we demonstrate the superior
performance of our proposed G2A2C over the existing state-of-the-art attackers.
Source code is publicly available at: https://github.com/jumxglhf/G2A2C}.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、長年にわたって大きな注目を集め、製品レコメンデーションやユーザビヘイビアモデリングといった堅牢性や活発なセキュリティ標準を必要とする本質的なアプリケーションに広く適用されてきた。
これらのシナリオの下では、GNNの脆弱性を悪用し、パフォーマンスをさらに低下させることは、敵にとって非常にインセンティブとなる。
以前の攻撃者は、サーロゲートモデルからの勾配により、既存のグラフへの構造的摂動やノード注入に主に焦点を合わせていた。
有望な結果をもたらすが、いくつかの制限は残っている。
構造的摂動攻撃が提案された攻撃を開始するためには、敵は既存のグラフトポロジーを操作する必要がある。
ノードインジェクション攻撃はより実用的ではあるが、現在のアプローチではホワイトボックス設定をシミュレートするためにサロゲートモデルをトレーニングする必要がある。
本稿では,これらのギャップを埋めるために,ブラックボックス・ノード・インジェクション・アタックの問題を,潜在的に誤解を招くサロゲートモデルを訓練することなく研究する。
具体的には,ノードインジェクション攻撃をマルコフ決定プロセスとしてモデル化し,g2a2cという,アドバンテージアクタ批判という形で強化学習フレームワークを提案する。
被害者モデルを直接クエリすることで、g2a2cは、攻撃予算が非常に少ない、非常に悪意のあるノードを注入することを学び、同様のノード機能分布を維持する。
異なる特性を持つ8つの認識されたベンチマークデータセットを包括的に実験した結果,提案するg2a2cが既存の攻撃者よりも優れた性能を示す。
ソースコードはhttps://github.com/jumxglhf/G2A2C}で公開されている。
関連論文リスト
- Hard Label Black Box Node Injection Attack on Graph Neural Networks [7.176182084359572]
グラフニューラルネットワークにおける非ターゲット型ハードラベルブラックボックスノードインジェクション攻撃を提案する。
我々の攻撃は、既存のエッジ摂動攻撃に基づいており、ノード注入攻撃を定式化するために最適化プロセスを制限する。
本研究では,3つのデータセットを用いて攻撃性能を評価する。
論文 参考訳(メタデータ) (2023-11-22T09:02:04Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Single Node Injection Label Specificity Attack on Graph Neural Networks
via Reinforcement Learning [8.666702832094874]
ブラックボックス回避設定においてターゲットノードを操作するために、単一の悪意あるノードを注入する勾配のない一般化可能な逆問題を提案する。
被害者モデルを直接クエリすることで、G$2$-SNIAは探索からパターンを学び、極めて限られた攻撃予算で多様な攻撃目標を達成する。
論文 参考訳(メタデータ) (2023-05-04T15:10:41Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Sparse Vicious Attacks on Graph Neural Networks [3.246307337376473]
この研究は、GNNベースのリンク予測モデルに対する特定のホワイトボックス攻撃に焦点を当てている。
本稿では,このタイプのリンク予測攻撃をマウントする新しいフレームワークと手法であるSAVAGEを提案する。
実世界のデータセットと合成データセットを用いて行った実験は、SAVAGEを通じて実施された敵攻撃が実際に高い攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2022-09-20T12:51:24Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - What Does the Gradient Tell When Attacking the Graph Structure [44.44204591087092]
本稿では,GNNのメッセージパッシング機構により,攻撃者がクラス間エッジを増大させる傾向があることを示す。
異なるノードを接続することで、攻撃者はより効果的にノード機能を破損させ、そのような攻撃をより有利にする。
本研究では,攻撃効率と非受容性のバランスを保ち,より優れた非受容性を実現するために攻撃効率を犠牲にする,革新的な攻撃損失を提案する。
論文 参考訳(メタデータ) (2022-08-26T15:45:20Z) - Adversarial Camouflage for Node Injection Attack on Graphs [64.5888846198005]
グラフニューラルネットワーク(GNN)に対するノードインジェクション攻撃は、GNNのパフォーマンスを高い攻撃成功率で低下させる能力のため、近年注目を集めている。
本研究は,これらの攻撃が現実的なシナリオでしばしば失敗することを示す。
これを解決するため,我々はカモフラージュノードインジェクション攻撃(camouflage node Injection attack)に取り組んだ。
論文 参考訳(メタデータ) (2022-08-03T02:48:23Z) - Black-box Node Injection Attack for Graph Neural Networks [29.88729779937473]
被害者のGNNモデルを回避するためにノードを注入する可能性について検討する。
具体的には,グラフ強化学習フレームワークGA2Cを提案する。
本稿では,既存の最先端手法よりもGA2Cの方が優れた性能を示す。
論文 参考訳(メタデータ) (2022-02-18T19:17:43Z) - Discriminator-Free Generative Adversarial Attack [87.71852388383242]
生成的ベースの敵攻撃は、この制限を取り除くことができる。
ASymmetric Saliency-based Auto-Encoder (SSAE) は摂動を生成する。
SSAEが生成した敵の例は、広く使われているモデルを崩壊させるだけでなく、優れた視覚的品質を実現する。
論文 参考訳(メタデータ) (2021-07-20T01:55:21Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。