論文の概要: Single Node Injection Attack against Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2108.13049v1
- Date: Mon, 30 Aug 2021 08:12:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 14:20:19.962981
- Title: Single Node Injection Attack against Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークに対する単一ノード注入攻撃
- Authors: Shuchang Tao, Qi Cao, Huawei Shen, Junjie Huang, Yunfan Wu, Xueqi
Cheng
- Abstract要約: 本稿では,グラフニューラルネットワーク(GNN)における単一ノード注入回避攻撃の極めて限定的なシナリオに焦点を当てる。
実験の結果、3つの公開データセット上の100%、98.60%、94.98%のノードが、1つのエッジで1つのノードを注入するだけで攻撃に成功していることがわかった。
本稿では,攻撃性能を確保しつつ,攻撃効率を向上させるために汎用化可能なノードインジェクションアタックモデルG-NIAを提案する。
- 参考スコア(独自算出の注目度): 39.455430635159146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Node injection attack on Graph Neural Networks (GNNs) is an emerging and
practical attack scenario that the attacker injects malicious nodes rather than
modifying original nodes or edges to affect the performance of GNNs. However,
existing node injection attacks ignore extremely limited scenarios, namely the
injected nodes might be excessive such that they may be perceptible to the
target GNN. In this paper, we focus on an extremely limited scenario of single
node injection evasion attack, i.e., the attacker is only allowed to inject one
single node during the test phase to hurt GNN's performance. The discreteness
of network structure and the coupling effect between network structure and node
features bring great challenges to this extremely limited scenario. We first
propose an optimization-based method to explore the performance upper bound of
single node injection evasion attack. Experimental results show that 100%,
98.60%, and 94.98% nodes on three public datasets are successfully attacked
even when only injecting one node with one edge, confirming the feasibility of
single node injection evasion attack. However, such an optimization-based
method needs to be re-optimized for each attack, which is computationally
unbearable. To solve the dilemma, we further propose a Generalizable Node
Injection Attack model, namely G-NIA, to improve the attack efficiency while
ensuring the attack performance. Experiments are conducted across three
well-known GNNs. Our proposed G-NIA significantly outperforms state-of-the-art
baselines and is 500 times faster than the optimization-based method when
inferring.
- Abstract(参考訳): Graph Neural Networks(GNN)に対するノードインジェクション攻撃は、攻撃者が元のノードやエッジを変更してGNNのパフォーマンスに影響を与えるのではなく、悪意のあるノードを注入する、新しくて実用的な攻撃シナリオである。
しかし、既存のノードインジェクション攻撃は、非常に制限されたシナリオを無視している。
本稿では,単一ノードインジェクション回避攻撃の極めて限定的なシナリオ,すなわち,GNNの性能を損なうために,テストフェーズ中に単一ノードを1つだけ注入することが許されていることに焦点を当てる。
ネットワーク構造の離散性とネットワーク構造とノード特徴の結合効果は、この極めて限られたシナリオに大きな課題をもたらす。
まず,単一ノードインジェクション回避攻撃の性能上界を探索する最適化ベース手法を提案する。
実験の結果、3つの公開データセット上の100%、98.60%、94.98%のノードが1つのエッジで1つのノードを注入するだけで攻撃され、単一ノードのインジェクション回避攻撃の可能性が確認された。
しかし、このような最適化に基づく手法は、各攻撃に対して再最適化する必要がある。
このジレンマを解決するため,攻撃性能を確保しつつ,攻撃効率を向上させるために汎用化可能なノード注入攻撃モデルG-NIAを提案する。
実験は3つの有名なGNNで行われている。
提案したG-NIAは最先端のベースラインを著しく上回り,推定時の最適化手法よりも500倍高速である。
関連論文リスト
- Minimum Topology Attacks for Graph Neural Networks [70.17791814425148]
グラフニューラルネットワーク(GNN)は、敵対的トポロジ攻撃に対する堅牢性において大きな注目を集めている。
本稿では,各ノードに対する攻撃を成功させるのに十分な最小摂動を適応的に見つけることを目的とした,最小予算トポロジ攻撃という新しいタイプのトポロジ攻撃を提案する。
論文 参考訳(メタデータ) (2024-03-05T07:29:12Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - Node Injection for Class-specific Network Poisoning [16.177991267568125]
グラフニューラルネットワーク(GNN)は、下流タスクのパフォーマンスを補助するリッチネットワーク表現を学習する上で強力である。
近年の研究では、GNNはノード注入やネットワーク摂動を含む敵攻撃に弱いことが示されている。
そこで我々は,攻撃者がターゲットクラス内の特定のノードを,ノードインジェクションを用いて別のクラスに誤分類することを目的とした,グラフに対するクラス固有の毒物攻撃という,新たな問題文を提案する。
論文 参考訳(メタデータ) (2023-01-28T19:24:03Z) - GANI: Global Attacks on Graph Neural Networks via Imperceptible Node
Injections [20.18085461668842]
グラフニューラルネットワーク(GNN)は、様々なグラフ関連タスクで成功している。
近年の研究では、多くのGNNが敵の攻撃に弱いことが示されている。
本稿では,偽ノードを注入することで,現実的な攻撃操作に焦点を当てる。
論文 参考訳(メタデータ) (2022-10-23T02:12:26Z) - Sparse Vicious Attacks on Graph Neural Networks [3.246307337376473]
この研究は、GNNベースのリンク予測モデルに対する特定のホワイトボックス攻撃に焦点を当てている。
本稿では,このタイプのリンク予測攻撃をマウントする新しいフレームワークと手法であるSAVAGEを提案する。
実世界のデータセットと合成データセットを用いて行った実験は、SAVAGEを通じて実施された敵攻撃が実際に高い攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2022-09-20T12:51:24Z) - Adversarial Camouflage for Node Injection Attack on Graphs [64.5888846198005]
グラフニューラルネットワーク(GNN)に対するノードインジェクション攻撃は、GNNのパフォーマンスを高い攻撃成功率で低下させる能力のため、近年注目を集めている。
本研究は,これらの攻撃が現実的なシナリオでしばしば失敗することを示す。
これを解決するため,我々はカモフラージュノードインジェクション攻撃(camouflage node Injection attack)に取り組んだ。
論文 参考訳(メタデータ) (2022-08-03T02:48:23Z) - TDGIA:Effective Injection Attacks on Graph Neural Networks [21.254710171416374]
グラフインジェクションアタック(GIA)における最近導入された現実的な攻撃シナリオについて検討する。
GIAのシナリオでは、敵は既存のリンク構造や入力グラフのノード属性を変更することができない。
本稿では,GIA設定下でのGNNのトポロジ的脆弱性の解析を行い,効果的なインジェクション攻撃のためのトポロジカルデフェクティブグラフインジェクション攻撃(TDGIA)を提案する。
論文 参考訳(メタデータ) (2021-06-12T01:53:25Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - AN-GCN: An Anonymous Graph Convolutional Network Defense Against
Edge-Perturbing Attack [53.06334363586119]
近年の研究では、エッジ摂動攻撃に対するグラフ畳み込みネットワーク(GCN)の脆弱性が明らかにされている。
まず、エッジ摂動攻撃の定式化を一般化し、ノード分類タスクにおけるこのような攻撃に対するGCNの脆弱性を厳密に証明する。
これに続いて、匿名グラフ畳み込みネットワークAN-GCNがエッジ摂動攻撃に対抗するために提案されている。
論文 参考訳(メタデータ) (2020-05-06T08:15:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。