論文の概要: AGSOA:Graph Neural Network Targeted Attack Based on Average Gradient and Structure Optimization
- arxiv url: http://arxiv.org/abs/2406.13228v1
- Date: Wed, 19 Jun 2024 05:29:20 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 23:09:15.523223
- Title: AGSOA:Graph Neural Network Targeted Attack Based on Average Gradient and Structure Optimization
- Title(参考訳): AGSOA:平均勾配と構造最適化に基づくグラフニューラルネットワークターゲット攻撃
- Authors: Yang Chen, Bin Zhou,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフに小さな摂動を加えることでパフォーマンス低下を引き起こす敵攻撃に対して脆弱である。
本稿では、平均勾配計算と構造最適化モジュールで構成されるAGSOAと呼ばれるGNNに対する攻撃を提案する。
- 参考スコア(独自算出の注目度): 16.681157857248436
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks(GNNs) are vulnerable to adversarial attack that cause performance degradation by adding small perturbations to the graph. Gradient-based attacks are one of the most commonly used methods and have achieved good performance in many attack scenarios. However, current gradient attacks face the problems of easy to fall into local optima and poor attack invisibility. Specifically, most gradient attacks use greedy strategies to generate perturbations, which tend to fall into local optima leading to underperformance of the attack. In addition, many attacks only consider the effectiveness of the attack and ignore the invisibility of the attack, making the attacks easily exposed leading to failure. To address the above problems, this paper proposes an attack on GNNs, called AGSOA, which consists of an average gradient calculation and a structre optimization module. In the average gradient calculation module, we compute the average of the gradient information over all moments to guide the attack to generate perturbed edges, which stabilizes the direction of the attack update and gets rid of undesirable local maxima. In the structure optimization module, we calculate the similarity and homogeneity of the target node's with other nodes to adjust the graph structure so as to improve the invisibility and transferability of the attack. Extensive experiments on three commonly used datasets show that AGSOA improves the misclassification rate by 2$\%$-8$\%$ compared to other state-of-the-art models.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフに小さな摂動を加えることで性能劣化を引き起こす敵攻撃に対して脆弱である。
グラディエントベースのアタックは最も一般的に使用されるメソッドの1つで、多くのアタックシナリオで優れたパフォーマンスを実現している。
しかし、現在の勾配攻撃は、局所的な最適状態に陥りやすく、攻撃の可視性が低いという問題に直面している。
特に、ほとんどの勾配攻撃は摂動を引き起こすために欲張り戦略を使い、これは攻撃の過小評価につながる。
さらに、多くの攻撃は攻撃の有効性のみを考慮し、攻撃の可視性を無視し、攻撃が容易に失敗につながるようにしている。
上記の問題に対処するために,平均勾配計算と構造最適化モジュールからなるAGSOAと呼ばれるGNNに対する攻撃を提案する。
平均勾配計算モジュールでは、全ての瞬間における勾配情報の平均を算出し、攻撃を誘導して乱れエッジを生成し、攻撃更新の方向を安定させ、望ましくない局所最大値を取り除く。
構造最適化モジュールでは、ターゲットノードと他のノードとの類似性と均一性を計算し、グラフ構造を調整し、攻撃の可視性と伝達性を改善する。
3つの一般的なデータセットに対する大規模な実験は、AGSOAが他の最先端モデルと比較して、誤分類率を2$\%$-8$\%$に改善していることを示している。
関連論文リスト
- HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Single Node Injection Label Specificity Attack on Graph Neural Networks
via Reinforcement Learning [8.666702832094874]
ブラックボックス回避設定においてターゲットノードを操作するために、単一の悪意あるノードを注入する勾配のない一般化可能な逆問題を提案する。
被害者モデルを直接クエリすることで、G$2$-SNIAは探索からパターンを学び、極めて限られた攻撃予算で多様な攻撃目標を達成する。
論文 参考訳(メタデータ) (2023-05-04T15:10:41Z) - Towards Reasonable Budget Allocation in Untargeted Graph Structure
Attacks via Gradient Debias [50.628150015907565]
クロスエントロピー損失関数は、分類タスクにおける摂動スキームを評価するために用いられる。
従来の手法ではノードレベルの分類モデルを攻撃する攻撃対象として負のクロスエントロピー損失を用いる。
本稿では、予算配分の観点から、これまでの不合理な攻撃目標について論じる。
論文 参考訳(メタデータ) (2023-03-29T13:02:02Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - BinarizedAttack: Structural Poisoning Attacks to Graph-based Anomaly
Detection [20.666171188140503]
グラフに基づく異常検出(GAD)は,グラフの強力な表現能力によって普及しつつある。
皮肉なことに、これらのGADツールは、データ間の関係を活用できるというユニークな利点のために、新たな攻撃面を公開する。
本稿では, この脆弱性を利用して, 代表的な回帰型GADシステムOddBallに対して, 標的となる新しいタイプの構造的中毒攻撃を設計する。
論文 参考訳(メタデータ) (2021-06-18T08:20:23Z) - Sparse and Imperceptible Adversarial Attack via a Homotopy Algorithm [93.80082636284922]
少数の敵対的攻撃は、数ピクセルを摂動するだけでディープ・ネットワーク(DNN)を騙すことができる。
近年の取り組みは、他の等級のl_infty摂動と組み合わせている。
本稿では,空間的・神経的摂動に対処するホモトピーアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-10T20:11:36Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z) - Scalable Attack on Graph Data by Injecting Vicious Nodes [44.56647129718062]
グラフ畳み込みネットワーク(GCN)は、注意深い設計の攻撃に対して脆弱である。
我々は、より実用的な攻撃シナリオを考慮した、よりスケーラブルなフレームワークであるApproximate Fast Gradient Sign Method (AFGSM)を開発した。
提案手法はGCNの分類精度を大幅に低減し,攻撃性能を損なうことなく既存の手法よりもはるかに高速である。
論文 参考訳(メタデータ) (2020-04-22T02:11:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。