論文の概要: Multi-Targeted Graph Backdoor Attack
- arxiv url: http://arxiv.org/abs/2601.15474v1
- Date: Wed, 21 Jan 2026 21:23:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-23 21:37:20.417753
- Title: Multi-Targeted Graph Backdoor Attack
- Title(参考訳): マルチターゲットグラフバックドア攻撃
- Authors: Md Nabi Newaz Khan, Abdullah Arafat Miah, Yu Bi,
- Abstract要約: グラフニューラルネットワーク(GNN)は、さまざまな領域にまたがる臨界問題の解決において、例外的なパフォーマンスを示している。
グラフ分類のためのバックドアアタックに関する既存の研究は、サブグラフ置換を用いた単一ターゲットアタックに限られている。
グラフ分類タスクにおいて,複数のトリガが同時に予測を異なるターゲットラベルにリダイレクトする,最初のマルチターゲットバックドアアタックを導入する。
- 参考スコア(独自算出の注目度): 0.038233569758620044
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural network (GNN) have demonstrated exceptional performance in solving critical problems across diverse domains yet remain susceptible to backdoor attacks. Existing studies on backdoor attack for graph classification are limited to single target attack using subgraph replacement based mechanism where the attacker implants only one trigger into the GNN model. In this paper, we introduce the first multi-targeted backdoor attack for graph classification task, where multiple triggers simultaneously redirect predictions to different target labels. Instead of subgraph replacement, we propose subgraph injection which preserves the structure of the original graphs while poisoning the clean graphs. Extensive experiments demonstrate the efficacy of our approach, where our attack achieves high attack success rates for all target labels with minimal impact on the clean accuracy. Experimental results on five dataset demonstrate the superior performance of our attack framework compared to the conventional subgraph replacement-based attack. Our analysis on four GNN models confirms the generalization capability of our attack which is effective regardless of the GNN model architectures and training parameters settings. We further investigate the impact of the attack design parameters including injection methods, number of connections, trigger sizes, trigger edge density and poisoning ratios. Additionally, our evaluation against state-of-the-art defenses (randomized smoothing and fine-pruning) demonstrates the robustness of our proposed multi-target attacks. This work highlights the GNN vulnerability against multi-targeted backdoor attack in graph classification task. Our source codes will be available at https://github.com/SiSL-URI/Multi-Targeted-Graph-Backdoor-Attack.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、さまざまな領域にまたがる重要な問題を解決する上で、例外的なパフォーマンスを示したが、バックドア攻撃の影響を受けない。
グラフ分類のためのバックドアアタックに関する既存の研究は、攻撃者がGNNモデルに1つのトリガだけを埋め込むサブグラフ置換に基づくメカニズムを用いて、単一のターゲットアタックに制限されている。
本稿では,グラフ分類タスクにおいて,複数のトリガが同時に予測を異なるターゲットラベルにリダイレクトする,最初のマルチターゲットバックドアアタックを提案する。
グラフを置換する代わりに,クリーングラフを汚染しながら元のグラフの構造を保存するサブグラフインジェクションを提案する。
大規模な実験により, クリーンな精度への影響を最小限に抑えながら, 標的ラベルに対して高い攻撃成功率を達成できるアプローチの有効性が示された。
5つのデータセットに対する実験結果から,従来のサブグラフ置換攻撃と比較して,攻撃フレームワークの性能が優れていることが示された。
4つのGNNモデルの解析により,GNNモデルアーキテクチャやトレーニングパラメータの設定に関わらず,攻撃の一般化能力を確認した。
さらに, インジェクション法, 接続数, トリガーサイズ, エッジ密度, 中毒率など, 攻撃設計パラメータの影響について検討した。
さらに、最先端の防御(ランダムな平滑化と細粒化)に対する評価は、提案したマルチターゲット攻撃の堅牢性を示している。
この研究は、グラフ分類タスクにおけるマルチターゲットバックドア攻撃に対するGNN脆弱性を強調している。
ソースコードはhttps://github.com/SiSL-URI/Multi-Targeted-Graph-Backdoor-Attack.orgで公開されます。
関連論文リスト
- Robustness Inspired Graph Backdoor Defense [30.82433380830665]
グラフニューラルネットワーク(GNN)は,ノード分類やグラフ分類といったタスクにおいて,有望な結果を達成している。
最近の研究で、GNNはバックドア攻撃に弱いことが判明し、実際の採用に重大な脅威をもたらしている。
本研究では,裏口検出にランダムなエッジドロップを用いることにより,汚染ノードとクリーンノードを効率的に識別できることを理論的に示す。
論文 参考訳(メタデータ) (2024-06-14T08:46:26Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Unnoticeable Backdoor Attacks on Graph Neural Networks [29.941951380348435]
特に、バックドアアタックは、トレーニンググラフ内の一連のノードにトリガーとターゲットクラスラベルをアタッチすることで、グラフを毒する。
本稿では,攻撃予算が制限されたグラフバックドア攻撃の新たな問題について検討する。
論文 参考訳(メタデータ) (2023-02-11T01:50:58Z) - Explainability-based Backdoor Attacks Against Graph Neural Networks [9.179577599489559]
ニューラルネットワークにはバックドア攻撃に関する多くの研究があるが、グラフニューラルネットワーク(gnn)を考えるものはごくわずかである。
我々は2つの強力なGNN説明可能性アプローチを適用し、最適なトリガー注入位置を選択し、2つの攻撃目標を達成します。
ベンチマークデータセットと最先端ニューラルネットワークモデルを用いた実験結果から,提案手法の有効性を示す。
論文 参考訳(メタデータ) (2021-04-08T10:43:40Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z) - Backdoor Attacks to Graph Neural Networks [73.56867080030091]
グラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃を提案する。
我々のバックドア攻撃では、GNNは、事前に定義されたサブグラフがテストグラフに注入されると、テストグラフに対するアタッカー・チョーセンターゲットラベルを予測する。
実験の結果,我々のバックドア攻撃はクリーンなテストグラフに対するGNNの予測精度に小さな影響を与えていることがわかった。
論文 参考訳(メタデータ) (2020-06-19T14:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。