論文の概要: Sparse Vicious Attacks on Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2209.09688v1
- Date: Tue, 20 Sep 2022 12:51:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 19:48:28.792319
- Title: Sparse Vicious Attacks on Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおけるスパース攻撃
- Authors: Giovanni Trappolini, Valentino Maiorca, Silvio Severino, Emanuele
Rodol\`a, Fabrizio Silvestri, Gabriele Tolomei
- Abstract要約: この研究は、GNNベースのリンク予測モデルに対する特定のホワイトボックス攻撃に焦点を当てている。
本稿では,このタイプのリンク予測攻撃をマウントする新しいフレームワークと手法であるSAVAGEを提案する。
実世界のデータセットと合成データセットを用いて行った実験は、SAVAGEを通じて実施された敵攻撃が実際に高い攻撃成功率を達成することを示した。
- 参考スコア(独自算出の注目度): 3.246307337376473
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have proven to be successful in several
predictive modeling tasks for graph-structured data.
Amongst those tasks, link prediction is one of the fundamental problems for
many real-world applications, such as recommender systems.
However, GNNs are not immune to adversarial attacks, i.e., carefully crafted
malicious examples that are designed to fool the predictive model.
In this work, we focus on a specific, white-box attack to GNN-based link
prediction models, where a malicious node aims to appear in the list of
recommended nodes for a given target victim.
To achieve this goal, the attacker node may also count on the cooperation of
other existing peers that it directly controls, namely on the ability to inject
a number of ``vicious'' nodes in the network.
Specifically, all these malicious nodes can add new edges or remove existing
ones, thereby perturbing the original graph.
Thus, we propose SAVAGE, a novel framework and a method to mount this type of
link prediction attacks.
SAVAGE formulates the adversary's goal as an optimization task, striking the
balance between the effectiveness of the attack and the sparsity of malicious
resources required.
Extensive experiments conducted on real-world and synthetic datasets
demonstrate that adversarial attacks implemented through SAVAGE indeed achieve
high attack success rate yet using a small amount of vicious nodes.
Finally, despite those attacks require full knowledge of the target model, we
show that they are successfully transferable to other black-box methods for
link prediction.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データの予測モデリングタスクで成功している。
これらのタスクのうち、リンク予測は、レコメンダシステムなど、多くの現実世界のアプリケーションにとって根本的な問題の一つです。
しかし、GNNは敵の攻撃に免疫がない、すなわち予測モデルを騙すように設計された悪意のある例を慎重に作っている。
本研究では、GNNベースのリンク予測モデルに対する、特定のホワイトボックス攻撃に焦点を当て、悪意のあるノードが、特定の対象者に対する推奨ノードリストに現れることを目標としている。
この目標を達成するために、攻撃者ノードは、ネットワークに多数の‘vicious’ノードを注入する能力を直接制御する他の既存のピアの協力も考慮する可能性がある。
具体的には、これらすべての悪意のあるノードは、新しいエッジを追加したり、既存のノードを削除することができる。
そこで我々は,このタイプのリンク予測攻撃をマウントする新しいフレームワークと手法であるSAVAGEを提案する。
SAVAGEは敵の目標を最適化タスクとして定式化し、攻撃の有効性と必要となる悪意のあるリソースの空白とのバランスを崩す。
実世界のデータセットと合成データセットで実施された大規模な実験は、SAVAGEを通じて実施された敵攻撃が、少数の悪質なノードを使用しても高い攻撃成功率を達成することを示した。
最後に、これらの攻撃は対象モデルの完全な知識を必要とするが、リンク予測のための他のブラックボックス手法への転送に成功していることを示す。
関連論文リスト
- Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Hard Label Black Box Node Injection Attack on Graph Neural Networks [7.176182084359572]
グラフニューラルネットワークにおける非ターゲット型ハードラベルブラックボックスノードインジェクション攻撃を提案する。
我々の攻撃は、既存のエッジ摂動攻撃に基づいており、ノード注入攻撃を定式化するために最適化プロセスを制限する。
本研究では,3つのデータセットを用いて攻撃性能を評価する。
論文 参考訳(メタデータ) (2023-11-22T09:02:04Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - Single Node Injection Label Specificity Attack on Graph Neural Networks
via Reinforcement Learning [8.666702832094874]
ブラックボックス回避設定においてターゲットノードを操作するために、単一の悪意あるノードを注入する勾配のない一般化可能な逆問題を提案する。
被害者モデルを直接クエリすることで、G$2$-SNIAは探索からパターンを学び、極めて限られた攻撃予算で多様な攻撃目標を達成する。
論文 参考訳(メタデータ) (2023-05-04T15:10:41Z) - GUAP: Graph Universal Attack Through Adversarial Patching [12.484396767037925]
グラフニューラルネットワーク(GNN)は、ノード分類タスクのための効果的なディープラーニングモデルのクラスである。
本研究では,新たなノードとエッジでグラフを逆パッチすることで,より容易な攻撃を見極める。
我々はGUAPと呼ばれるアルゴリズムを開発し、高い攻撃成功率を達成できるが、予測精度は維持できる。
論文 参考訳(メタデータ) (2023-01-04T18:02:29Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - What Does the Gradient Tell When Attacking the Graph Structure [44.44204591087092]
本稿では,GNNのメッセージパッシング機構により,攻撃者がクラス間エッジを増大させる傾向があることを示す。
異なるノードを接続することで、攻撃者はより効果的にノード機能を破損させ、そのような攻撃をより有利にする。
本研究では,攻撃効率と非受容性のバランスを保ち,より優れた非受容性を実現するために攻撃効率を犠牲にする,革新的な攻撃損失を提案する。
論文 参考訳(メタデータ) (2022-08-26T15:45:20Z) - A Hard Label Black-box Adversarial Attack Against Graph Neural Networks [25.081630882605985]
我々は,グラフ構造の摂動によるグラフ分類のためのGNNに対する敵対的攻撃について,系統的研究を行った。
我々は、高い攻撃成功率を維持しながら、グラフ内で摂動するエッジの数を最小化する最適化問題として、我々の攻撃を定式化する。
実世界の3つのデータセットに対する実験結果から,クエリや摂動を少なくして,グラフ分類のための代表的GNNを効果的に攻撃できることが示された。
論文 参考訳(メタデータ) (2021-08-21T14:01:34Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。