論文の概要: Adversarial Camouflage for Node Injection Attack on Graphs
- arxiv url: http://arxiv.org/abs/2208.01819v4
- Date: Sat, 23 Sep 2023 07:57:47 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-27 04:52:55.589366
- Title: Adversarial Camouflage for Node Injection Attack on Graphs
- Title(参考訳): グラフ上のノード注入攻撃のための逆カモフラージュ
- Authors: Shuchang Tao, Qi Cao, Huawei Shen, Yunfan Wu, Liang Hou, Fei Sun,
Xueqi Cheng
- Abstract要約: グラフニューラルネットワーク(GNN)に対するノードインジェクション攻撃は、GNNのパフォーマンスを高い攻撃成功率で低下させる能力のため、近年注目を集めている。
本研究は,これらの攻撃が現実的なシナリオでしばしば失敗することを示す。
これを解決するため,我々はカモフラージュノードインジェクション攻撃(camouflage node Injection attack)に取り組んだ。
- 参考スコア(独自算出の注目度): 64.5888846198005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Node injection attacks on Graph Neural Networks (GNNs) have received
increasing attention recently, due to their ability to degrade GNN performance
with high attack success rates. However, our study indicates that these attacks
often fail in practical scenarios, since defense/detection methods can easily
identify and remove the injected nodes. To address this, we devote to
camouflage node injection attack, making injected nodes appear normal and
imperceptible to defense/detection methods. Unfortunately, the non-Euclidean
structure of graph data and the lack of intuitive prior present great
challenges to the formalization, implementation, and evaluation of camouflage.
In this paper, we first propose and define camouflage as distribution
similarity between ego networks of injected nodes and normal nodes. Then for
implementation, we propose an adversarial CAmouflage framework for Node
injection Attack, namely CANA, to improve attack performance under
defense/detection methods in practical scenarios. A novel camouflage metric is
further designed under the guide of distribution similarity. Extensive
experiments demonstrate that CANA can significantly improve the attack
performance under defense/detection methods with higher camouflage or
imperceptibility. This work urges us to raise awareness of the security
vulnerabilities of GNNs in practical applications.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)に対するノードインジェクション攻撃は、GNNのパフォーマンスを高い攻撃成功率で低下させる能力のため、近年注目を集めている。
しかし,本研究は,本手法が注入されたノードを容易に識別し除去できるため,実際のシナリオではこれらの攻撃が失敗することが多いことを示唆する。
これを解決するため,我々はカモフラージュノードインジェクション攻撃(camouflage node Injection attack)に取り組んだ。
残念ながら、グラフデータの非ユークリッド構造と直感的な事前の欠如は、カモフラージュの形式化、実装、評価に大きな課題をもたらす。
本稿ではまず,注入ノードと正規ノードのエゴネットワーク間の分布類似性としてカモフラージュを提案し,定義する。
そこで,本研究では,ノードインジェクション攻撃のための逆カモフラージュフレームワーク cana を提案する。
新たなカモフラージュ計量はさらに分布類似性のガイドの下で設計されている。
広範囲な実験により、カナは高いカモフラージュまたは非感受性で防御/検出法の下で攻撃性能を著しく向上できることが示されている。
本研究は,実用アプリケーションにおけるGNNのセキュリティ脆弱性の認識を高めることを促す。
関連論文リスト
- Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Node Injection for Class-specific Network Poisoning [16.177991267568125]
グラフニューラルネットワーク(GNN)は、下流タスクのパフォーマンスを補助するリッチネットワーク表現を学習する上で強力である。
近年の研究では、GNNはノード注入やネットワーク摂動を含む敵攻撃に弱いことが示されている。
そこで我々は,攻撃者がターゲットクラス内の特定のノードを,ノードインジェクションを用いて別のクラスに誤分類することを目的とした,グラフに対するクラス固有の毒物攻撃という,新たな問題文を提案する。
論文 参考訳(メタデータ) (2023-01-28T19:24:03Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - GANI: Global Attacks on Graph Neural Networks via Imperceptible Node
Injections [20.18085461668842]
グラフニューラルネットワーク(GNN)は、様々なグラフ関連タスクで成功している。
近年の研究では、多くのGNNが敵の攻撃に弱いことが示されている。
本稿では,偽ノードを注入することで,現実的な攻撃操作に焦点を当てる。
論文 参考訳(メタデータ) (2022-10-23T02:12:26Z) - Sparse Vicious Attacks on Graph Neural Networks [3.246307337376473]
この研究は、GNNベースのリンク予測モデルに対する特定のホワイトボックス攻撃に焦点を当てている。
本稿では,このタイプのリンク予測攻撃をマウントする新しいフレームワークと手法であるSAVAGEを提案する。
実世界のデータセットと合成データセットを用いて行った実験は、SAVAGEを通じて実施された敵攻撃が実際に高い攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2022-09-20T12:51:24Z) - What Does the Gradient Tell When Attacking the Graph Structure [44.44204591087092]
本稿では,GNNのメッセージパッシング機構により,攻撃者がクラス間エッジを増大させる傾向があることを示す。
異なるノードを接続することで、攻撃者はより効果的にノード機能を破損させ、そのような攻撃をより有利にする。
本研究では,攻撃効率と非受容性のバランスを保ち,より優れた非受容性を実現するために攻撃効率を犠牲にする,革新的な攻撃損失を提案する。
論文 参考訳(メタデータ) (2022-08-26T15:45:20Z) - Single Node Injection Attack against Graph Neural Networks [39.455430635159146]
本稿では,グラフニューラルネットワーク(GNN)における単一ノード注入回避攻撃の極めて限定的なシナリオに焦点を当てる。
実験の結果、3つの公開データセット上の100%、98.60%、94.98%のノードが、1つのエッジで1つのノードを注入するだけで攻撃に成功していることがわかった。
本稿では,攻撃性能を確保しつつ,攻撃効率を向上させるために汎用化可能なノードインジェクションアタックモデルG-NIAを提案する。
論文 参考訳(メタデータ) (2021-08-30T08:12:25Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z) - AN-GCN: An Anonymous Graph Convolutional Network Defense Against
Edge-Perturbing Attack [53.06334363586119]
近年の研究では、エッジ摂動攻撃に対するグラフ畳み込みネットワーク(GCN)の脆弱性が明らかにされている。
まず、エッジ摂動攻撃の定式化を一般化し、ノード分類タスクにおけるこのような攻撃に対するGCNの脆弱性を厳密に証明する。
これに続いて、匿名グラフ畳み込みネットワークAN-GCNがエッジ摂動攻撃に対抗するために提案されている。
論文 参考訳(メタデータ) (2020-05-06T08:15:24Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。