論文の概要: Node Injection Attack Based on Label Propagation Against Graph Neural Network
- arxiv url: http://arxiv.org/abs/2405.18824v1
- Date: Wed, 29 May 2024 07:09:16 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 18:28:55.393464
- Title: Node Injection Attack Based on Label Propagation Against Graph Neural Network
- Title(参考訳): グラフニューラルネットワークに対するラベル伝搬に基づくノード注入攻撃
- Authors: Peican Zhu, Zechen Pan, Keke Tang, Xiaodong Cui, Jinhuan Wang, Qi Xuan,
- Abstract要約: グラフニューラルネットワーク(GNN)は,ノード分類,リンク予測,グラフ分類など,さまざまなグラフ学習タスクにおいて顕著な成功を収めている。
攻撃者は偽ノードを注入することで容易に集約プロセスを摂動でき、グラフインジェクション攻撃に対してGNNが脆弱であることを明らかにする。
本稿では,ノード分類タスクに対してグラフインジェクション攻撃を行うラベルプロパゲーションベースグローバルインジェクションアタック(LPGIA)を提案する。
- 参考スコア(独自算出の注目度): 11.410811769066209
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Network (GNN) has achieved remarkable success in various graph learning tasks, such as node classification, link prediction and graph classification. The key to the success of GNN lies in its effective structure information representation through neighboring aggregation. However, the attacker can easily perturb the aggregation process through injecting fake nodes, which reveals that GNN is vulnerable to the graph injection attack. Existing graph injection attack methods primarily focus on damaging the classical feature aggregation process while overlooking the neighborhood aggregation process via label propagation. To bridge this gap, we propose the label-propagation-based global injection attack (LPGIA) which conducts the graph injection attack on the node classification task. Specifically, we analyze the aggregation process from the perspective of label propagation and transform the graph injection attack problem into a global injection label specificity attack problem. To solve this problem, LPGIA utilizes a label propagation-based strategy to optimize the combinations of the nodes connected to the injected node. Then, LPGIA leverages the feature mapping to generate malicious features for injected nodes. In extensive experiments against representative GNNs, LPGIA outperforms the previous best-performing injection attack method in various datasets, demonstrating its superiority and transferability.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,ノード分類,リンク予測,グラフ分類など,さまざまなグラフ学習タスクにおいて顕著な成功を収めている。
GNNの成功の鍵は、近隣の集約による効果的な構造情報表現にある。
しかし、攻撃者は偽ノードを注入することで容易に集約プロセスを摂動でき、グラフインジェクション攻撃に対してGNNが脆弱であることを明らかにする。
既存のグラフインジェクション攻撃法は主に、ラベル伝搬による近隣の集約プロセスを見下ろしながら、古典的な特徴集約プロセスの損傷に焦点を当てている。
このギャップを埋めるために,ノード分類タスクに対してグラフ注入攻撃を行うラベル伝搬型グローバルインジェクションアタック(LPGIA)を提案する。
具体的には,ラベル伝播の観点から集約プロセスを解析し,グラフ注入攻撃問題をグローバルなインジェクションラベル特異性攻撃問題に変換する。
この問題を解決するため、LPGIAはラベル伝搬に基づく戦略を用いて、注入ノードに接続されたノードの組み合わせを最適化する。
次に、LPGIAは機能マッピングを利用して、注入されたノードの悪意ある機能を生成する。
代表的GNNに対する広範な実験において、LPGIAは様々なデータセットにおいて、これまでの最も優れたインジェクション攻撃法よりも優れており、その優位性と転送性を示している。
関連論文リスト
- HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - BOURNE: Bootstrapped Self-supervised Learning Framework for Unified
Graph Anomaly Detection [50.26074811655596]
自己指導型自己学習(BOURNE)に基づく新しい統合グラフ異常検出フレームワークを提案する。
ノードとエッジ間のコンテキスト埋め込みを交換することで、ノードとエッジの異常を相互に検出できる。
BOURNEは、負のサンプリングを必要としないため、大きなグラフを扱う際の効率を高めることができる。
論文 参考訳(メタデータ) (2023-07-28T00:44:57Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - Node Injection for Class-specific Network Poisoning [16.177991267568125]
グラフニューラルネットワーク(GNN)は、下流タスクのパフォーマンスを補助するリッチネットワーク表現を学習する上で強力である。
近年の研究では、GNNはノード注入やネットワーク摂動を含む敵攻撃に弱いことが示されている。
そこで我々は,攻撃者がターゲットクラス内の特定のノードを,ノードインジェクションを用いて別のクラスに誤分類することを目的とした,グラフに対するクラス固有の毒物攻撃という,新たな問題文を提案する。
論文 参考訳(メタデータ) (2023-01-28T19:24:03Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - GANI: Global Attacks on Graph Neural Networks via Imperceptible Node
Injections [20.18085461668842]
グラフニューラルネットワーク(GNN)は、様々なグラフ関連タスクで成功している。
近年の研究では、多くのGNNが敵の攻撃に弱いことが示されている。
本稿では,偽ノードを注入することで,現実的な攻撃操作に焦点を当てる。
論文 参考訳(メタデータ) (2022-10-23T02:12:26Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Label-Only Membership Inference Attack against Node-Level Graph Neural
Networks [30.137860266059004]
グラフニューラルネットワーク(GNN)は、メンバーシップ推論攻撃(MIA)に対して脆弱である
本稿では,GNNのフレキシブル予測機構を利用して,ノード分類のためのラベルのみのMIAを提案する。
攻撃手法は,ほとんどのデータセットやGNNモデルに対して,AUC(Area Under the Curve)の精度,精度,面積の約60%を達成している。
論文 参考訳(メタデータ) (2022-07-27T19:46:26Z) - TDGIA:Effective Injection Attacks on Graph Neural Networks [21.254710171416374]
グラフインジェクションアタック(GIA)における最近導入された現実的な攻撃シナリオについて検討する。
GIAのシナリオでは、敵は既存のリンク構造や入力グラフのノード属性を変更することができない。
本稿では,GIA設定下でのGNNのトポロジ的脆弱性の解析を行い,効果的なインジェクション攻撃のためのトポロジカルデフェクティブグラフインジェクション攻撃(TDGIA)を提案する。
論文 参考訳(メタデータ) (2021-06-12T01:53:25Z) - Inverse Graph Identification: Can We Identify Node Labels Given Graph
Labels? [89.13567439679709]
グラフ識別(GI)は、グラフ学習において長い間研究されており、特定の応用において不可欠である。
本稿では,逆グラフ識別(Inverse Graph Identification, IGI)と呼ばれる新しい問題を定義する。
本稿では,グラフアテンションネットワーク(GAT)を用いたノードレベルのメッセージパッシング処理を,GIのプロトコルの下でシンプルかつ効果的に行う方法を提案する。
論文 参考訳(メタデータ) (2020-07-12T12:06:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。