論文の概要: Single Node Injection Label Specificity Attack on Graph Neural Networks
via Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2305.02901v1
- Date: Thu, 4 May 2023 15:10:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-05 15:05:15.142406
- Title: Single Node Injection Label Specificity Attack on Graph Neural Networks
via Reinforcement Learning
- Title(参考訳): 強化学習によるグラフニューラルネットワークに対する単一ノードインジェクションラベル特異性攻撃
- Authors: Dayuan Chen, Jian Zhang, Yuqian Lv, Jinhuan Wang, Hongjie Ni, Shanqing
Yu, Zhen Wang, and Qi Xuan
- Abstract要約: ブラックボックス回避設定においてターゲットノードを操作するために、単一の悪意あるノードを注入する勾配のない一般化可能な逆問題を提案する。
被害者モデルを直接クエリすることで、G$2$-SNIAは探索からパターンを学び、極めて限られた攻撃予算で多様な攻撃目標を達成する。
- 参考スコア(独自算出の注目度): 8.666702832094874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have achieved remarkable success in various
real-world applications. However, recent studies highlight the vulnerability of
GNNs to malicious perturbations. Previous adversaries primarily focus on graph
modifications or node injections to existing graphs, yielding promising results
but with notable limitations. Graph modification attack~(GMA) requires
manipulation of the original graph, which is often impractical, while graph
injection attack~(GIA) necessitates training a surrogate model in the black-box
setting, leading to significant performance degradation due to divergence
between the surrogate architecture and the actual victim model. Furthermore,
most methods concentrate on a single attack goal and lack a generalizable
adversary to develop distinct attack strategies for diverse goals, thus
limiting precise control over victim model behavior in real-world scenarios. To
address these issues, we present a gradient-free generalizable adversary that
injects a single malicious node to manipulate the classification result of a
target node in the black-box evasion setting. We propose Gradient-free
Generalizable Single Node Injection Attack, namely G$^2$-SNIA, a reinforcement
learning framework employing Proximal Policy Optimization. By directly querying
the victim model, G$^2$-SNIA learns patterns from exploration to achieve
diverse attack goals with extremely limited attack budgets. Through
comprehensive experiments over three acknowledged benchmark datasets and four
prominent GNNs in the most challenging and realistic scenario, we demonstrate
the superior performance of our proposed G$^2$-SNIA over the existing
state-of-the-art baselines. Moreover, by comparing G$^2$-SNIA with multiple
white-box evasion baselines, we confirm its capacity to generate solutions
comparable to those of the best adversaries.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで顕著な成功を収めている。
しかし、近年の研究は、悪意のある摂動に対するGNNの脆弱性を強調している。
従来の敵は主にグラフ修正や既存のグラフへのノードインジェクションに注目し、有望な結果をもたらすが、注目すべき制限がある。
グラフ修正アタック~(GMA)は元のグラフの操作を必要とするが、グラフインジェクションアタック~(GIA)はブラックボックス設定で代理モデルをトレーニングする必要がある。
さらに、ほとんどの手法は単一の攻撃目標に集中しており、多様な目標に対して異なる攻撃戦略を開発するための汎用的な敵戦略を欠いている。
これらの問題に対処するために,ブラックボックス回避設定における対象ノードの分類結果を操作するために,単一の悪意のあるノードを注入する勾配フリーの一般化可能な敵システムを提案する。
本稿では,G$^2$-SNIA(G$^2$-SNIA)という,近似ポリシー最適化を用いた強化学習フレームワークを提案する。
被害者モデルを直接問い合わせることで、G$^2$-SNIAは探索からパターンを学び、極めて限られた攻撃予算で多様な攻撃目標を達成する。
3つの評価されたベンチマークデータセットと4つの著名なGNNに関する総合的な実験を通じて、提案したG$^2$-SNIAの既存の最先端ベースラインよりも優れた性能を示す。
さらに、G$^2$-SNIAを複数のホワイトボックス回避ベースラインと比較することにより、最も優れた敵に匹敵する解を生成する能力を確認する。
関連論文リスト
- Graph Transductive Defense: a Two-Stage Defense for Graph Membership Inference Attacks [50.19590901147213]
グラフニューラルネットワーク(GNN)は、さまざまな現実世界のアプリケーションにおいて、強力なグラフ学習機能を提供する。
GNNは、メンバーシップ推論攻撃(MIA)を含む敵攻撃に対して脆弱である
本稿では,グラフトランスダクティブ学習特性に合わせて,グラフトランスダクティブ・ディフェンス(GTD)を提案する。
論文 参考訳(メタデータ) (2024-06-12T06:36:37Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Let Graph be the Go Board: Gradient-free Node Injection Attack for Graph
Neural Networks via Reinforcement Learning [37.4570186471298]
そこで我々は,ブラックボックスノードインジェクション攻撃の問題を,潜在的に誤解を招くサロゲートモデルをトレーニングすることなく検討した。
被害者のモデルを直接クエリすることで、G2A2Cは極めて限られた攻撃予算で非常に悪意のあるノードを注入することを学ぶ。
提案したG2A2Cは,既存の攻撃者よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-19T19:37:22Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - GANI: Global Attacks on Graph Neural Networks via Imperceptible Node
Injections [20.18085461668842]
グラフニューラルネットワーク(GNN)は、様々なグラフ関連タスクで成功している。
近年の研究では、多くのGNNが敵の攻撃に弱いことが示されている。
本稿では,偽ノードを注入することで,現実的な攻撃操作に焦点を当てる。
論文 参考訳(メタデータ) (2022-10-23T02:12:26Z) - Sparse Vicious Attacks on Graph Neural Networks [3.246307337376473]
この研究は、GNNベースのリンク予測モデルに対する特定のホワイトボックス攻撃に焦点を当てている。
本稿では,このタイプのリンク予測攻撃をマウントする新しいフレームワークと手法であるSAVAGEを提案する。
実世界のデータセットと合成データセットを用いて行った実験は、SAVAGEを通じて実施された敵攻撃が実際に高い攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2022-09-20T12:51:24Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Black-box Node Injection Attack for Graph Neural Networks [29.88729779937473]
被害者のGNNモデルを回避するためにノードを注入する可能性について検討する。
具体的には,グラフ強化学習フレームワークGA2Cを提案する。
本稿では,既存の最先端手法よりもGA2Cの方が優れた性能を示す。
論文 参考訳(メタデータ) (2022-02-18T19:17:43Z) - A Hard Label Black-box Adversarial Attack Against Graph Neural Networks [25.081630882605985]
我々は,グラフ構造の摂動によるグラフ分類のためのGNNに対する敵対的攻撃について,系統的研究を行った。
我々は、高い攻撃成功率を維持しながら、グラフ内で摂動するエッジの数を最小化する最適化問題として、我々の攻撃を定式化する。
実世界の3つのデータセットに対する実験結果から,クエリや摂動を少なくして,グラフ分類のための代表的GNNを効果的に攻撃できることが示された。
論文 参考訳(メタデータ) (2021-08-21T14:01:34Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。