論文の概要: Adversarial Camouflage for Node Injection Attack on Graphs
- arxiv url: http://arxiv.org/abs/2208.01819v1
- Date: Wed, 3 Aug 2022 02:48:23 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-04 14:10:04.854877
- Title: Adversarial Camouflage for Node Injection Attack on Graphs
- Title(参考訳): グラフ上のノード注入攻撃のための逆カモフラージュ
- Authors: Shuchang Tao, Qi Cao, Huawei Shen, Yunfan Wu, Liang Hou, Xueqi Cheng
- Abstract要約: 入射ノードを中心としたエゴネットワークの忠実度と多様性の両方から、入射ノードのカモフラージュを提案し、定式化する。
我々は、攻撃性能を確保しつつ、カモフラージュを改善するために、ノードインジェクションアタックのための対向的なCAmouflageフレームワーク、すなわちCANAを設計する。
- 参考スコア(独自算出の注目度): 44.946152300106625
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Node injection attacks against Graph Neural Networks (GNNs) have received
emerging attention as a practical attack scenario, where the attacker injects
malicious nodes instead of modifying node features or edges to degrade the
performance of GNNs. Despite the initial success of node injection attacks, we
find that the injected nodes by existing methods are easy to be distinguished
from the original normal nodes by defense methods and limiting their attack
performance in practice. To solve the above issues, we devote to camouflage
node injection attack, i.e., camouflaging injected malicious nodes
(structure/attributes) as the normal ones that appear legitimate/imperceptible
to defense methods. The non-Euclidean nature of graph data and the lack of
human prior brings great challenges to the formalization, implementation, and
evaluation of camouflage on graphs. In this paper, we first propose and
formulate the camouflage of injected nodes from both the fidelity and diversity
of the ego networks centered around injected nodes. Then, we design an
adversarial CAmouflage framework for Node injection Attack, namely CANA, to
improve the camouflage while ensuring the attack performance. Several novel
indicators for graph camouflage are further designed for a comprehensive
evaluation. Experimental results demonstrate that when equipping existing node
injection attack methods with our proposed CANA framework, the attack
performance against defense methods as well as node camouflage is significantly
improved.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)に対するノードインジェクション攻撃は、攻撃者がノード機能やエッジを変更してGNNのパフォーマンスを低下させる代わりに悪意のあるノードを注入するという、実用的な攻撃シナリオとして注目されている。
ノードインジェクション攻撃の初期成功にもかかわらず、既存の手法によるインジェクションノードは、防御手法によって元の通常のノードと区別しやすく、実際に攻撃性能を制限することができる。
上記の問題を解決するために、我々はカモフラージュノードインジェクション攻撃(すなわち、注入された悪意のあるノード(構造/属性)を、防御方法に正当かつ知覚できない正常な攻撃として用いた。
グラフデータの非ユークリッド的な性質と人間の事前の欠如は、グラフ上のカモフラージュの形式化、実装、評価に大きな課題をもたらす。
本稿では, 注入ノードを中心にしたegoネットワークの忠実性と多様性から, 注入ノードのカモフラージュを最初に提案, 定式化する。
次に,ノードインジェクション攻撃のための逆カモフラージュフレームワーク,すなわちcanaを設計し,攻撃性能を確保しつつカモフラージュを改善する。
グラフカモフラージュのための新しい指標が包括的評価のためにさらに設計されている。
提案したCANAフレームワークに既存のノードインジェクション攻撃手法を組み込むことで,防御手法とノードカモフラージュに対する攻撃性能が大幅に向上することを示した。
関連論文リスト
- Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Node Injection for Class-specific Network Poisoning [16.177991267568125]
グラフニューラルネットワーク(GNN)は、下流タスクのパフォーマンスを補助するリッチネットワーク表現を学習する上で強力である。
近年の研究では、GNNはノード注入やネットワーク摂動を含む敵攻撃に弱いことが示されている。
そこで我々は,攻撃者がターゲットクラス内の特定のノードを,ノードインジェクションを用いて別のクラスに誤分類することを目的とした,グラフに対するクラス固有の毒物攻撃という,新たな問題文を提案する。
論文 参考訳(メタデータ) (2023-01-28T19:24:03Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - GANI: Global Attacks on Graph Neural Networks via Imperceptible Node
Injections [20.18085461668842]
グラフニューラルネットワーク(GNN)は、様々なグラフ関連タスクで成功している。
近年の研究では、多くのGNNが敵の攻撃に弱いことが示されている。
本稿では,偽ノードを注入することで,現実的な攻撃操作に焦点を当てる。
論文 参考訳(メタデータ) (2022-10-23T02:12:26Z) - Sparse Vicious Attacks on Graph Neural Networks [3.246307337376473]
この研究は、GNNベースのリンク予測モデルに対する特定のホワイトボックス攻撃に焦点を当てている。
本稿では,このタイプのリンク予測攻撃をマウントする新しいフレームワークと手法であるSAVAGEを提案する。
実世界のデータセットと合成データセットを用いて行った実験は、SAVAGEを通じて実施された敵攻撃が実際に高い攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2022-09-20T12:51:24Z) - What Does the Gradient Tell When Attacking the Graph Structure [44.44204591087092]
本稿では,GNNのメッセージパッシング機構により,攻撃者がクラス間エッジを増大させる傾向があることを示す。
異なるノードを接続することで、攻撃者はより効果的にノード機能を破損させ、そのような攻撃をより有利にする。
本研究では,攻撃効率と非受容性のバランスを保ち,より優れた非受容性を実現するために攻撃効率を犠牲にする,革新的な攻撃損失を提案する。
論文 参考訳(メタデータ) (2022-08-26T15:45:20Z) - Single Node Injection Attack against Graph Neural Networks [39.455430635159146]
本稿では,グラフニューラルネットワーク(GNN)における単一ノード注入回避攻撃の極めて限定的なシナリオに焦点を当てる。
実験の結果、3つの公開データセット上の100%、98.60%、94.98%のノードが、1つのエッジで1つのノードを注入するだけで攻撃に成功していることがわかった。
本稿では,攻撃性能を確保しつつ,攻撃効率を向上させるために汎用化可能なノードインジェクションアタックモデルG-NIAを提案する。
論文 参考訳(メタデータ) (2021-08-30T08:12:25Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z) - AN-GCN: An Anonymous Graph Convolutional Network Defense Against
Edge-Perturbing Attack [53.06334363586119]
近年の研究では、エッジ摂動攻撃に対するグラフ畳み込みネットワーク(GCN)の脆弱性が明らかにされている。
まず、エッジ摂動攻撃の定式化を一般化し、ノード分類タスクにおけるこのような攻撃に対するGCNの脆弱性を厳密に証明する。
これに続いて、匿名グラフ畳み込みネットワークAN-GCNがエッジ摂動攻撃に対抗するために提案されている。
論文 参考訳(メタデータ) (2020-05-06T08:15:24Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。