論文の概要: Robustness-Inspired Defense Against Backdoor Attacks on Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2406.09836v1
- Date: Fri, 14 Jun 2024 08:46:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-17 14:34:29.384176
- Title: Robustness-Inspired Defense Against Backdoor Attacks on Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおけるバックドア攻撃に対するロバスト性にインスパイアされた防御
- Authors: Zhiwei Zhang, Minhua Lin, Junjie Xu, Zongyu Wu, Enyan Dai, Suhang Wang,
- Abstract要約: グラフニューラルネットワーク(GNN)は,ノード分類やグラフ分類といったタスクにおいて,有望な結果を達成している。
最近の研究で、GNNはバックドア攻撃に弱いことが判明し、実際の採用に重大な脅威をもたらしている。
本研究では,裏口検出にランダムなエッジドロップを用いることにより,汚染ノードとクリーンノードを効率的に識別できることを理論的に示す。
- 参考スコア(独自算出の注目度): 30.82433380830665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have achieved promising results in tasks such as node classification and graph classification. However, recent studies reveal that GNNs are vulnerable to backdoor attacks, posing a significant threat to their real-world adoption. Despite initial efforts to defend against specific graph backdoor attacks, there is no work on defending against various types of backdoor attacks where generated triggers have different properties. Hence, we first empirically verify that prediction variance under edge dropping is a crucial indicator for identifying poisoned nodes. With this observation, we propose using random edge dropping to detect backdoors and theoretically show that it can efficiently distinguish poisoned nodes from clean ones. Furthermore, we introduce a novel robust training strategy to efficiently counteract the impact of the triggers. Extensive experiments on real-world datasets show that our framework can effectively identify poisoned nodes, significantly degrade the attack success rate, and maintain clean accuracy when defending against various types of graph backdoor attacks with different properties.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,ノード分類やグラフ分類といったタスクにおいて,有望な結果を達成している。
しかし、最近の研究では、GNNはバックドア攻撃に弱いことが判明し、実際の採用に重大な脅威をもたらしている。
特定のグラフバックドア攻撃に対する防御の最初の取り組みにもかかわらず、生成されたトリガが異なる特性を持つさまざまな種類のバックドア攻撃に対する防御作業は行われていない。
したがって, エッジダウン下での予測分散が有毒ノードの同定に重要な指標であることを実証的に検証した。
そこで本研究では,裏口検出にランダムエッジドロップを用いることにより,汚染ノードとクリーンノードを効果的に識別できることを理論的に示す。
さらに,トリガの影響を効果的に防止するための,新しい堅牢なトレーニング戦略を導入する。
実世界のデータセットに対する大規模な実験により、我々のフレームワークは、有毒なノードを効果的に識別し、攻撃成功率を著しく低下させ、異なる特性を持つ様々な種類のグラフバックドア攻撃に対する防御において、クリーンな精度を維持することができることが示された。
関連論文リスト
- Boosting Graph Robustness Against Backdoor Attacks: An Over-Similarity Perspective [5.29403129046676]
グラフニューラルネットワーク(GNN)は、ソーシャルネットワークやトランスポートネットワークなどのタスクにおいて顕著な成功を収めている。
最近の研究は、GNNのバックドア攻撃に対する脆弱性を強調し、現実世界のアプリケーションにおける信頼性に関する重大な懸念を提起している。
そこで我々は,新しいグラフバックドアディフェンス手法SimGuardを提案する。
論文 参考訳(メタデータ) (2025-02-03T11:41:42Z) - MADE: Graph Backdoor Defense with Masked Unlearning [24.97718571096943]
グラフニューラルネットワーク(GNN)は、グラフ関連タスクの処理能力に優れていたため、研究者から大きな注目を集めている。
最近の研究では、GNNはトレーニングデータセットにトリガを注入することで実装されたバックドア攻撃に対して脆弱であることが示されている。
この脆弱性は、薬物発見のようなセンシティブなドメインにおけるGNNの応用に重大なセキュリティリスクをもたらす。
論文 参考訳(メタデータ) (2024-11-26T22:50:53Z) - DMGNN: Detecting and Mitigating Backdoor Attacks in Graph Neural Networks [30.766013737094532]
我々は,DMGNNを,アウト・オブ・ディストリビューション(OOD)およびイン・ディストリビューション(ID)グラフバックドア攻撃に対して提案する。
DMGNNは、偽説明に基づいてラベル遷移を予測することによって、隠されたIDとOODトリガを容易に識別できる。
DMGNNは最新技術(SOTA)防衛法をはるかに上回り、モデル性能のほとんど無視できる劣化を伴って攻撃成功率を5%に低下させる。
論文 参考訳(メタデータ) (2024-10-18T01:08:03Z) - Rethinking Graph Backdoor Attacks: A Distribution-Preserving Perspective [33.35835060102069]
グラフニューラルネットワーク(GNN)は、様々なタスクにおいて顕著なパフォーマンスを示している。
バックドア攻撃は、トレーニンググラフ内のノードのセットにバックドアトリガとターゲットクラスラベルをアタッチすることで、グラフを汚染する。
本稿では,IDトリガによる無意味なグラフバックドア攻撃の新たな問題について検討する。
論文 参考訳(メタデータ) (2024-05-17T13:09:39Z) - IDEA: Invariant Defense for Graph Adversarial Robustness [60.0126873387533]
敵攻撃に対する不変因果判定法(IDEA)を提案する。
我々は,情報理論の観点から,ノードと構造に基づく分散目標を導出する。
実験によると、IDEAは5つのデータセットすべてに対する5つの攻撃に対して、最先端の防御性能を達成している。
論文 参考訳(メタデータ) (2023-05-25T07:16:00Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Unnoticeable Backdoor Attacks on Graph Neural Networks [29.941951380348435]
特に、バックドアアタックは、トレーニンググラフ内の一連のノードにトリガーとターゲットクラスラベルをアタッチすることで、グラフを毒する。
本稿では,攻撃予算が制限されたグラフバックドア攻撃の新たな問題について検討する。
論文 参考訳(メタデータ) (2023-02-11T01:50:58Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Backdoor Attacks to Graph Neural Networks [73.56867080030091]
グラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃を提案する。
我々のバックドア攻撃では、GNNは、事前に定義されたサブグラフがテストグラフに注入されると、テストグラフに対するアタッカー・チョーセンターゲットラベルを予測する。
実験の結果,我々のバックドア攻撃はクリーンなテストグラフに対するGNNの予測精度に小さな影響を与えていることがわかった。
論文 参考訳(メタデータ) (2020-06-19T14:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。