論文の概要: Node Injection for Class-specific Network Poisoning
- arxiv url: http://arxiv.org/abs/2301.12277v1
- Date: Sat, 28 Jan 2023 19:24:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-31 18:00:47.041244
- Title: Node Injection for Class-specific Network Poisoning
- Title(参考訳): クラス特異的ネットワーク中毒のためのノードインジェクション
- Authors: Ansh Kumar Sharma and Rahul Kukreja and Mayank Kharbanda and Tanmoy
Chakraborty
- Abstract要約: グラフニューラルネットワーク(GNN)は、下流タスクのパフォーマンスを補助するリッチネットワーク表現を学習する上で強力である。
近年の研究では、GNNはノード注入やネットワーク摂動を含む敵攻撃に弱いことが示されている。
そこで我々は,攻撃者がターゲットクラス内の特定のノードを,ノードインジェクションを用いて別のクラスに誤分類することを目的とした,グラフに対するクラス固有の毒物攻撃という,新たな問題文を提案する。
- 参考スコア(独自算出の注目度): 21.036720972017932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) are powerful in learning rich network
representations that aid the performance of downstream tasks. However, recent
studies showed that GNNs are vulnerable to adversarial attacks involving node
injection and network perturbation. Among these, node injection attacks are
more practical as they don't require manipulation in the existing network and
can be performed more realistically. In this paper, we propose a novel problem
statement - a class-specific poison attack on graphs in which the attacker aims
to misclassify specific nodes in the target class into a different class using
node injection. Additionally, nodes are injected in such a way that they
camouflage as benign nodes. We propose NICKI, a novel attacking strategy that
utilizes an optimization-based approach to sabotage the performance of
GNN-based node classifiers. NICKI works in two phases - it first learns the
node representation and then generates the features and edges of the injected
nodes. Extensive experiments and ablation studies on four benchmark networks
show that NICKI is consistently better than four baseline attacking strategies
for misclassifying nodes in the target class. We also show that the injected
nodes are properly camouflaged as benign, thus making the poisoned graph
indistinguishable from its clean version w.r.t various topological properties.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、下流タスクのパフォーマンスを補助するリッチネットワーク表現を学習する上で強力である。
しかし、最近の研究では、GNNはノード注入やネットワーク摂動を含む敵攻撃に弱いことが示されている。
これらのうち、ノードインジェクション攻撃は、既存のネットワークで操作する必要がなく、より現実的に実行できるため、より実用的です。
本稿では,攻撃者がターゲットクラスの特定のノードを,ノードインジェクションを用いて異なるクラスに誤分類することを目的とした,グラフに対するクラス固有の毒物攻撃である,新しい問題文を提案する。
さらに、ノードは良性ノードとしてカモフラージュするように注入される。
本稿では,gnnベースのノード分類器の性能を妨害する最適化に基づく手法を用いた新しい攻撃戦略であるnickiを提案する。
nickiは2つのフェーズで動作します - まずノード表現を学習し、注入されたノードの特徴とエッジを生成します。
4つのベンチマークネットワークに関する大規模な実験とアブレーション研究により、NICKIはターゲットクラスのノードを誤分類するための4つのベースライン攻撃戦略よりも一貫して優れていることが示された。
また、注入されたノードは良性として適切にカモフラージュされることを示し、毒されたグラフはその清浄版 w.r. の様々な位相特性と区別できないことを示す。
関連論文リスト
- Node Injection Attack Based on Label Propagation Against Graph Neural Network [11.410811769066209]
グラフニューラルネットワーク(GNN)は,ノード分類,リンク予測,グラフ分類など,さまざまなグラフ学習タスクにおいて顕著な成功を収めている。
攻撃者は偽ノードを注入することで容易に集約プロセスを摂動でき、グラフインジェクション攻撃に対してGNNが脆弱であることを明らかにする。
本稿では,ノード分類タスクに対してグラフインジェクション攻撃を行うラベルプロパゲーションベースグローバルインジェクションアタック(LPGIA)を提案する。
論文 参考訳(メタデータ) (2024-05-29T07:09:16Z) - Hard Label Black Box Node Injection Attack on Graph Neural Networks [7.176182084359572]
グラフニューラルネットワークにおける非ターゲット型ハードラベルブラックボックスノードインジェクション攻撃を提案する。
我々の攻撃は、既存のエッジ摂動攻撃に基づいており、ノード注入攻撃を定式化するために最適化プロセスを制限する。
本研究では,3つのデータセットを用いて攻撃性能を評価する。
論文 参考訳(メタデータ) (2023-11-22T09:02:04Z) - Collaborative Graph Neural Networks for Attributed Network Embedding [63.39495932900291]
グラフニューラルネットワーク(GNN)は、属性付きネットワーク埋め込みにおいて顕著な性能を示している。
本稿では,ネットワーク埋め込みに適したGNNアーキテクチャであるCulaborative graph Neural Networks-CONNを提案する。
論文 参考訳(メタデータ) (2023-07-22T04:52:27Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - GANI: Global Attacks on Graph Neural Networks via Imperceptible Node
Injections [20.18085461668842]
グラフニューラルネットワーク(GNN)は、様々なグラフ関連タスクで成功している。
近年の研究では、多くのGNNが敵の攻撃に弱いことが示されている。
本稿では,偽ノードを注入することで,現実的な攻撃操作に焦点を当てる。
論文 参考訳(メタデータ) (2022-10-23T02:12:26Z) - Adversarial Camouflage for Node Injection Attack on Graphs [64.5888846198005]
グラフニューラルネットワーク(GNN)に対するノードインジェクション攻撃は、GNNのパフォーマンスを高い攻撃成功率で低下させる能力のため、近年注目を集めている。
本研究は,これらの攻撃が現実的なシナリオでしばしば失敗することを示す。
これを解決するため,我々はカモフラージュノードインジェクション攻撃(camouflage node Injection attack)に取り組んだ。
論文 参考訳(メタデータ) (2022-08-03T02:48:23Z) - Single Node Injection Attack against Graph Neural Networks [39.455430635159146]
本稿では,グラフニューラルネットワーク(GNN)における単一ノード注入回避攻撃の極めて限定的なシナリオに焦点を当てる。
実験の結果、3つの公開データセット上の100%、98.60%、94.98%のノードが、1つのエッジで1つのノードを注入するだけで攻撃に成功していることがわかった。
本稿では,攻撃性能を確保しつつ,攻撃効率を向上させるために汎用化可能なノードインジェクションアタックモデルG-NIAを提案する。
論文 参考訳(メタデータ) (2021-08-30T08:12:25Z) - Graph Prototypical Networks for Few-shot Learning on Attributed Networks [72.31180045017835]
グラフメタ学習フレームワーク - Graph Prototypeal Networks (GPN) を提案する。
GPNは、属性付きネットワーク上でテキストミータ学習を行い、ターゲット分類タスクを扱うための高度に一般化可能なモデルを導出する。
論文 参考訳(メタデータ) (2020-06-23T04:13:23Z) - AN-GCN: An Anonymous Graph Convolutional Network Defense Against
Edge-Perturbing Attack [53.06334363586119]
近年の研究では、エッジ摂動攻撃に対するグラフ畳み込みネットワーク(GCN)の脆弱性が明らかにされている。
まず、エッジ摂動攻撃の定式化を一般化し、ノード分類タスクにおけるこのような攻撃に対するGCNの脆弱性を厳密に証明する。
これに続いて、匿名グラフ畳み込みネットワークAN-GCNがエッジ摂動攻撃に対抗するために提案されている。
論文 参考訳(メタデータ) (2020-05-06T08:15:24Z) - Indirect Adversarial Attacks via Poisoning Neighbors for Graph
Convolutional Networks [0.76146285961466]
グラフの畳み込みを無視すると、ノードの分類結果は隣人を中毒させることで影響を受ける。
我々は、1ホップの隣人だけでなく、目標から遠く離れた場所でも有効である強い敵の摂動を生成する。
提案手法は,ターゲットから2ホップ以内に99%の攻撃成功率を示す。
論文 参考訳(メタデータ) (2020-02-19T05:44:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。