論文の概要: GAIM: Attacking Graph Neural Networks via Adversarial Influence Maximization
- arxiv url: http://arxiv.org/abs/2408.10948v1
- Date: Tue, 20 Aug 2024 15:41:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-21 13:05:41.873779
- Title: GAIM: Attacking Graph Neural Networks via Adversarial Influence Maximization
- Title(参考訳): GAIM:逆の影響最大化によるグラフニューラルネットワークの攻撃
- Authors: Xiaodong Yang, Xiaoting Li, Huiyuan Chen, Yiwei Cai,
- Abstract要約: 我々は,厳密なブラックボックス設定を考慮しつつ,ノードベースで行う統合逆攻撃手法を提案する。
提案手法では,対象ノードの選択と特徴摂動の構成を単一最適化問題に統一する。
ラベル指向攻撃に対応するため,本手法を拡張し,適用範囲を広げる。
- 参考スコア(独自算出の注目度): 12.651079126612121
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies show that well-devised perturbations on graph structures or node features can mislead trained Graph Neural Network (GNN) models. However, these methods often overlook practical assumptions, over-rely on heuristics, or separate vital attack components. In response, we present GAIM, an integrated adversarial attack method conducted on a node feature basis while considering the strict black-box setting. Specifically, we define an adversarial influence function to theoretically assess the adversarial impact of node perturbations, thereby reframing the GNN attack problem into the adversarial influence maximization problem. In our approach, we unify the selection of the target node and the construction of feature perturbations into a single optimization problem, ensuring a unique and consistent feature perturbation for each target node. We leverage a surrogate model to transform this problem into a solvable linear programming task, streamlining the optimization process. Moreover, we extend our method to accommodate label-oriented attacks, broadening its applicability. Thorough evaluations on five benchmark datasets across three popular models underscore the effectiveness of our method in both untargeted and label-oriented targeted attacks. Through comprehensive analysis and ablation studies, we demonstrate the practical value and efficacy inherent to our design choices.
- Abstract(参考訳): 近年の研究では、グラフ構造やノード機能に関するよく検討された摂動が、トレーニングされたグラフニューラルネットワーク(GNN)モデルを誤って引き起こすことが示されている。
しかし、これらの手法は、しばしば実践的な仮定を見落とし、ヒューリスティックに過度に頼りすぎ、または別の重要な攻撃要素を見落としている。
そこで我々は,厳格なブラックボックス設定を考慮しつつ,ノード特徴量に基づく統合的敵攻撃手法であるGAIMを提案する。
具体的には,ノード摂動の対角的影響を理論的に評価する対角的影響関数を定義し,GNN攻撃問題を対角的影響最大化問題に再フレーミングする。
提案手法では,目的ノードの選択と特徴摂動の構成を単一最適化問題に統一し,目的ノード毎に一貫した特徴摂動を確保する。
我々は、サロゲートモデルを利用してこの問題を解決可能な線形プログラミングタスクに変換し、最適化プロセスを合理化します。
さらに,ラベル指向攻撃に対応する手法を拡張し,適用範囲を広げた。
3つの人気モデルを対象とした5つのベンチマークデータセットの詳細な評価は、未ターゲットとラベル指向のターゲットアタックの両方において、我々の手法の有効性を裏付けるものである。
包括的分析とアブレーション研究を通じて、設計選択に固有の実用的価値と有効性を示す。
関連論文リスト
- HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - GraphCloak: Safeguarding Task-specific Knowledge within Graph-structured Data from Unauthorized Exploitation [61.80017550099027]
グラフニューラルネットワーク(GNN)は、さまざまな分野でますます普及している。
個人データの不正利用に関する懸念が高まっている。
近年の研究では、このような誤用から画像データを保護する効果的な方法として、知覚不能な毒殺攻撃が報告されている。
本稿では,グラフデータの不正使用に対する保護のためにGraphCloakを導入する。
論文 参考訳(メタデータ) (2023-10-11T00:50:55Z) - IDEA: Invariant Defense for Graph Adversarial Robustness [60.0126873387533]
敵攻撃に対する不変因果判定法(IDEA)を提案する。
我々は,情報理論の観点から,ノードと構造に基づく分散目標を導出する。
実験によると、IDEAは5つのデータセットすべてに対する5つの攻撃に対して、最先端の防御性能を達成している。
論文 参考訳(メタデータ) (2023-05-25T07:16:00Z) - Single Node Injection Label Specificity Attack on Graph Neural Networks
via Reinforcement Learning [8.666702832094874]
ブラックボックス回避設定においてターゲットノードを操作するために、単一の悪意あるノードを注入する勾配のない一般化可能な逆問題を提案する。
被害者モデルを直接クエリすることで、G$2$-SNIAは探索からパターンを学び、極めて限られた攻撃予算で多様な攻撃目標を達成する。
論文 参考訳(メタデータ) (2023-05-04T15:10:41Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - GANI: Global Attacks on Graph Neural Networks via Imperceptible Node
Injections [20.18085461668842]
グラフニューラルネットワーク(GNN)は、様々なグラフ関連タスクで成功している。
近年の研究では、多くのGNNが敵の攻撃に弱いことが示されている。
本稿では,偽ノードを注入することで,現実的な攻撃操作に焦点を当てる。
論文 参考訳(メタデータ) (2022-10-23T02:12:26Z) - Adversarial Attack on Graph Neural Networks as An Influence Maximization
Problem [12.88476464580968]
グラフニューラルネットワーク(GNN)が注目されている。
敵の攻撃下でのGNNの堅牢性を理解する必要がある。
論文 参考訳(メタデータ) (2021-06-21T00:47:44Z) - Information Obfuscation of Graph Neural Networks [96.8421624921384]
本稿では,グラフ構造化データを用いた学習において,情報難読化による機密属性保護の問題について検討する。
本稿では,全変動量とワッサーシュタイン距離を交互に学習することで,事前決定された機密属性を局所的にフィルタリングするフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-28T17:55:04Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。