論文の概要: GANI: Global Attacks on Graph Neural Networks via Imperceptible Node
Injections
- arxiv url: http://arxiv.org/abs/2210.12598v1
- Date: Sun, 23 Oct 2022 02:12:26 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-25 15:16:14.688080
- Title: GANI: Global Attacks on Graph Neural Networks via Imperceptible Node
Injections
- Title(参考訳): gani: 受動的ノードインジェクションによるグラフニューラルネットワークのグローバル攻撃
- Authors: Junyuan Fang, Haixian Wen, Jiajing Wu, Qi Xuan, Zibin Zheng, Chi K.
Tse
- Abstract要約: グラフニューラルネットワーク(GNN)は、様々なグラフ関連タスクで成功している。
近年の研究では、多くのGNNが敵の攻撃に弱いことが示されている。
本稿では,偽ノードを注入することで,現実的な攻撃操作に焦点を当てる。
- 参考スコア(独自算出の注目度): 20.18085461668842
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural networks (GNNs) have found successful applications in various
graph-related tasks. However, recent studies have shown that many GNNs are
vulnerable to adversarial attacks. In a vast majority of existing studies,
adversarial attacks on GNNs are launched via direct modification of the
original graph such as adding/removing links, which may not be applicable in
practice. In this paper, we focus on a realistic attack operation via injecting
fake nodes. The proposed Global Attack strategy via Node Injection (GANI) is
designed under the comprehensive consideration of an unnoticeable perturbation
setting from both structure and feature domains. Specifically, to make the node
injections as imperceptible and effective as possible, we propose a sampling
operation to determine the degree of the newly injected nodes, and then
generate features and select neighbors for these injected nodes based on the
statistical information of features and evolutionary perturbations obtained
from a genetic algorithm, respectively. In particular, the proposed feature
generation mechanism is suitable for both binary and continuous node features.
Extensive experimental results on benchmark datasets against both general and
defended GNNs show strong attack performance of GANI. Moreover, the
imperceptibility analyses also demonstrate that GANI achieves a relatively
unnoticeable injection on benchmark datasets.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、様々なグラフ関連タスクで成功している。
しかし、近年の研究では、多くのGNNが敵の攻撃に弱いことが示されている。
既存の研究の大部分では、GNNに対する敵対的な攻撃は、実際には適用できないリンクの追加や削除といった元のグラフを直接修正することで開始される。
本稿では,フェイクノードの注入による現実的な攻撃操作に着目する。
提案するGlobal Attack Strategy via Node Injection (GANI) は、構造ドメインと特徴ドメインの両方からの無意味な摂動設定を包括的に考慮して設計されている。
具体的には,ノード注入を可能な限り知覚不能かつ効果的にするために,新たに注入したノードの度合いを決定するサンプリング操作を提案し,遺伝的アルゴリズムから得られた特徴の統計情報と進化的摂動に基づいて,これらのノードの特徴を生成し,隣人を選択する。
特に、提案する機能生成メカニズムは、バイナリ機能と連続ノード機能の両方に適している。
一般GNNと防衛GNNのベンチマークデータセットの大規模な実験結果から,GANIの強力な攻撃性能が示された。
さらに、GANIがベンチマークデータセットに対して比較的目立たないインジェクションを達成することを示す。
関連論文リスト
- Node Injection Attack Based on Label Propagation Against Graph Neural Network [11.410811769066209]
グラフニューラルネットワーク(GNN)は,ノード分類,リンク予測,グラフ分類など,さまざまなグラフ学習タスクにおいて顕著な成功を収めている。
攻撃者は偽ノードを注入することで容易に集約プロセスを摂動でき、グラフインジェクション攻撃に対してGNNが脆弱であることを明らかにする。
本稿では,ノード分類タスクに対してグラフインジェクション攻撃を行うラベルプロパゲーションベースグローバルインジェクションアタック(LPGIA)を提案する。
論文 参考訳(メタデータ) (2024-05-29T07:09:16Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - GNNEvaluator: Evaluating GNN Performance On Unseen Graphs Without Labels [81.93520935479984]
本稿では,ラベル付きおよび観測されたグラフに基づいて学習した特定のGNNモデルの性能を評価することを目的とした,新しい問題であるGNNモデル評価について検討する。
本稿では,(1) DiscGraph セット構築と(2) GNNEvaluator トレーニングと推論を含む2段階の GNN モデル評価フレームワークを提案する。
DiscGraphセットからの効果的なトレーニング監督の下で、GNNEvaluatorは、評価対象であるGNNモデルのノード分類精度を正確に推定することを学ぶ。
論文 参考訳(メタデータ) (2023-10-23T05:51:59Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Adversarial Camouflage for Node Injection Attack on Graphs [64.5888846198005]
グラフニューラルネットワーク(GNN)に対するノードインジェクション攻撃は、GNNのパフォーマンスを高い攻撃成功率で低下させる能力のため、近年注目を集めている。
本研究は,これらの攻撃が現実的なシナリオでしばしば失敗することを示す。
これを解決するため,我々はカモフラージュノードインジェクション攻撃(camouflage node Injection attack)に取り組んだ。
論文 参考訳(メタデータ) (2022-08-03T02:48:23Z) - Detecting Topology Attacks against Graph Neural Networks [39.968619861265395]
本稿では,GNNに対するトポロジ攻撃による被害者ノード検出問題について検討する。
我々のアプローチは、GNNの本質的なメッセージパッシングの性質に根ざした重要な観測に基づいている。
論文 参考訳(メタデータ) (2022-04-21T13:08:25Z) - TDGIA:Effective Injection Attacks on Graph Neural Networks [21.254710171416374]
グラフインジェクションアタック(GIA)における最近導入された現実的な攻撃シナリオについて検討する。
GIAのシナリオでは、敵は既存のリンク構造や入力グラフのノード属性を変更することができない。
本稿では,GIA設定下でのGNNのトポロジ的脆弱性の解析を行い,効果的なインジェクション攻撃のためのトポロジカルデフェクティブグラフインジェクション攻撃(TDGIA)を提案する。
論文 参考訳(メタデータ) (2021-06-12T01:53:25Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。