論文の概要: Robustness-Inspired Defense Against Backdoor Attacks on Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2406.09836v1
- Date: Fri, 14 Jun 2024 08:46:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-17 14:34:29.384176
- Title: Robustness-Inspired Defense Against Backdoor Attacks on Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおけるバックドア攻撃に対するロバスト性にインスパイアされた防御
- Authors: Zhiwei Zhang, Minhua Lin, Junjie Xu, Zongyu Wu, Enyan Dai, Suhang Wang,
- Abstract要約: グラフニューラルネットワーク(GNN)は,ノード分類やグラフ分類といったタスクにおいて,有望な結果を達成している。
最近の研究で、GNNはバックドア攻撃に弱いことが判明し、実際の採用に重大な脅威をもたらしている。
本研究では,裏口検出にランダムなエッジドロップを用いることにより,汚染ノードとクリーンノードを効率的に識別できることを理論的に示す。
- 参考スコア(独自算出の注目度): 30.82433380830665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have achieved promising results in tasks such as node classification and graph classification. However, recent studies reveal that GNNs are vulnerable to backdoor attacks, posing a significant threat to their real-world adoption. Despite initial efforts to defend against specific graph backdoor attacks, there is no work on defending against various types of backdoor attacks where generated triggers have different properties. Hence, we first empirically verify that prediction variance under edge dropping is a crucial indicator for identifying poisoned nodes. With this observation, we propose using random edge dropping to detect backdoors and theoretically show that it can efficiently distinguish poisoned nodes from clean ones. Furthermore, we introduce a novel robust training strategy to efficiently counteract the impact of the triggers. Extensive experiments on real-world datasets show that our framework can effectively identify poisoned nodes, significantly degrade the attack success rate, and maintain clean accuracy when defending against various types of graph backdoor attacks with different properties.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は,ノード分類やグラフ分類といったタスクにおいて,有望な結果を達成している。
しかし、最近の研究では、GNNはバックドア攻撃に弱いことが判明し、実際の採用に重大な脅威をもたらしている。
特定のグラフバックドア攻撃に対する防御の最初の取り組みにもかかわらず、生成されたトリガが異なる特性を持つさまざまな種類のバックドア攻撃に対する防御作業は行われていない。
したがって, エッジダウン下での予測分散が有毒ノードの同定に重要な指標であることを実証的に検証した。
そこで本研究では,裏口検出にランダムエッジドロップを用いることにより,汚染ノードとクリーンノードを効果的に識別できることを理論的に示す。
さらに,トリガの影響を効果的に防止するための,新しい堅牢なトレーニング戦略を導入する。
実世界のデータセットに対する大規模な実験により、我々のフレームワークは、有毒なノードを効果的に識別し、攻撃成功率を著しく低下させ、異なる特性を持つ様々な種類のグラフバックドア攻撃に対する防御において、クリーンな精度を維持することができることが示された。
関連論文リスト
- Rethinking Graph Backdoor Attacks: A Distribution-Preserving Perspective [33.35835060102069]
グラフニューラルネットワーク(GNN)は、様々なタスクにおいて顕著なパフォーマンスを示している。
バックドア攻撃は、トレーニンググラフ内のノードのセットにバックドアトリガとターゲットクラスラベルをアタッチすることで、グラフを汚染する。
本稿では,IDトリガによる無意味なグラフバックドア攻撃の新たな問題について検討する。
論文 参考訳(メタデータ) (2024-05-17T13:09:39Z) - Securing GNNs: Explanation-Based Identification of Backdoored Training Graphs [13.93535590008316]
グラフニューラルネットワーク(GNN)は、多くのドメインで人気を集めているが、パフォーマンスと倫理的応用を損なう可能性のあるバックドア攻撃に弱い。
本稿では,GNNにおけるバックドア攻撃を検出する新しい手法を提案する。
提案手法は, バックドア攻撃に対するGNNの安全性向上に寄与し, 高い検出性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2024-03-26T22:41:41Z) - IDEA: Invariant Defense for Graph Adversarial Robustness [60.0126873387533]
敵攻撃に対する不変因果判定法(IDEA)を提案する。
我々は,情報理論の観点から,ノードと構造に基づく分散目標を導出する。
実験によると、IDEAは5つのデータセットすべてに対する5つの攻撃に対して、最先端の防御性能を達成している。
論文 参考訳(メタデータ) (2023-05-25T07:16:00Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Unnoticeable Backdoor Attacks on Graph Neural Networks [29.941951380348435]
特に、バックドアアタックは、トレーニンググラフ内の一連のノードにトリガーとターゲットクラスラベルをアタッチすることで、グラフを毒する。
本稿では,攻撃予算が制限されたグラフバックドア攻撃の新たな問題について検討する。
論文 参考訳(メタデータ) (2023-02-11T01:50:58Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Defending Against Backdoor Attack on Graph Nerual Network by
Explainability [7.147386524788604]
GNNにおける最初のバックドア検出・防御手法を提案する。
グラフデータでは、現在のバックドアアタックは、トリガーを注入するためにグラフ構造を操作することに焦点を当てている。
その結果,いくつかの説明的評価指標では,良性サンプルと悪質サンプルとの間に明らかな違いがあることが判明した。
論文 参考訳(メタデータ) (2022-09-07T03:19:29Z) - Explainability-based Backdoor Attacks Against Graph Neural Networks [9.179577599489559]
ニューラルネットワークにはバックドア攻撃に関する多くの研究があるが、グラフニューラルネットワーク(gnn)を考えるものはごくわずかである。
我々は2つの強力なGNN説明可能性アプローチを適用し、最適なトリガー注入位置を選択し、2つの攻撃目標を達成します。
ベンチマークデータセットと最先端ニューラルネットワークモデルを用いた実験結果から,提案手法の有効性を示す。
論文 参考訳(メタデータ) (2021-04-08T10:43:40Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Backdoor Attacks to Graph Neural Networks [73.56867080030091]
グラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃を提案する。
我々のバックドア攻撃では、GNNは、事前に定義されたサブグラフがテストグラフに注入されると、テストグラフに対するアタッカー・チョーセンターゲットラベルを予測する。
実験の結果,我々のバックドア攻撃はクリーンなテストグラフに対するGNNの予測精度に小さな影響を与えていることがわかった。
論文 参考訳(メタデータ) (2020-06-19T14:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。