論文の概要: Motif-Backdoor: Rethinking the Backdoor Attack on Graph Neural Networks
via Motifs
- arxiv url: http://arxiv.org/abs/2210.13710v1
- Date: Tue, 25 Oct 2022 02:12:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-26 14:16:03.823839
- Title: Motif-Backdoor: Rethinking the Backdoor Attack on Graph Neural Networks
via Motifs
- Title(参考訳): Motif-Backdoor: Motifsによるグラフニューラルネットワークのバックドア攻撃の再考
- Authors: Haibin Zheng, Haiyang Xiong, Jinyin Chen, Haonan Ma, Guohan Huang
- Abstract要約: 強力な表現能力を持つグラフニューラルネットワーク(GNN)は、生物学的遺伝子予測やソーシャルレコメンデーションなど、さまざまな領域に広く適用されている。
近年の研究では、GNNがバックドア攻撃に対して脆弱であること、すなわち悪意あるトレーニングサンプルで訓練されたモデルは、パッチされたサンプルによって容易に騙される。
提案された研究の多くは、計算負担の少ないランダムに生成されたサブグラフ(例: erdHos-r'enyi backdoor)または勾配に基づく生成サブグラフ(例: gradient-based generative subgraph)を使用してバックドア攻撃を起動する。
- 参考スコア(独自算出の注目度): 1.9109292348200242
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph neural network (GNN) with a powerful representation capability has been
widely applied to various areas, such as biological gene prediction, social
recommendation, etc. Recent works have exposed that GNN is vulnerable to the
backdoor attack, i.e., models trained with maliciously crafted training samples
are easily fooled by patched samples. Most of the proposed studies launch the
backdoor attack using a trigger that either is the randomly generated subgraph
(e.g., erd\H{o}s-r\'enyi backdoor) for less computational burden, or the
gradient-based generative subgraph (e.g., graph trojaning attack) to enable a
more effective attack. However, the interpretation of how is the trigger
structure and the effect of the backdoor attack related has been overlooked in
the current literature. Motifs, recurrent and statistically significant
sub-graphs in graphs, contain rich structure information. In this paper, we are
rethinking the trigger from the perspective of motifs, and propose a
motif-based backdoor attack, denoted as Motif-Backdoor. It contributes from
three aspects. (i) Interpretation: it provides an in-depth explanation for
backdoor effectiveness by the validity of the trigger structure from motifs,
leading to some novel insights, e.g., using subgraphs that appear less
frequently in the graph as the trigger can achieve better attack performance.
(ii) Effectiveness: Motif-Backdoor reaches the state-of-the-art (SOTA) attack
performance in both black-box and defensive scenarios. (iii) Efficiency: based
on the graph motif distribution, Motif-Backdoor can quickly obtain an effective
trigger structure without target model feedback or subgraph model generation.
Extensive experimental results show that Motif-Backdoor realizes the SOTA
performance on three popular models and four public datasets compared with five
baselines.
- Abstract(参考訳): 強力な表現能力を持つグラフニューラルネットワーク(GNN)は、生物学的遺伝子予測やソーシャルレコメンデーションなど、さまざまな領域に広く適用されている。
近年の研究では、GNNがバックドア攻撃に対して脆弱であること、すなわち悪意あるトレーニングサンプルで訓練されたモデルは、パッチされたサンプルによって容易に騙される。
提案された研究の多くは、計算負担の少ないランダムに生成されたサブグラフ(例: erd\H{o}s-r\enyi backdoor)またはより効果的な攻撃を可能にする勾配に基づく生成サブグラフ(例:グラフトロイの木馬攻撃)を使ってバックドア攻撃を起動する。
しかし, これまでの文献では, トリガー構造とバックドア攻撃の影響の解釈は見過ごされている。
グラフにおけるモチーフ、反復および統計的に重要な部分グラフは、豊富な構造情報を含んでいる。
本稿では,モチーフの観点からトリガーを再考し,モチーフバックドアと呼ばれるモチーフベースのバックドア攻撃を提案する。
3つの側面から貢献する。
(i)解釈:モチーフからのトリガ構造の有効性によるバックドア効果の詳細な説明を提供し、トリガが攻撃性能を向上できるようにグラフに現れるサブグラフを使用することなど、いくつかの新しい洞察をもたらす。
(ii)有効性:モチーフバックドアはブラックボックスとディフェンスの両方のシナリオにおいて最先端(sota)攻撃性能に達する。
三 効率性:グラフモチーフ分布に基づいて、Motif-Backdoorは、ターゲットモデルフィードバックやサブグラフモデル生成なしに、有効なトリガ構造を迅速に得ることができる。
広範な実験結果から,モチーフバックドアは5つのベースラインと比較して,3つのポピュラーモデルと4つのパブリックデータセットでsota性能を実現することが示された。
関連論文リスト
- DMGNN: Detecting and Mitigating Backdoor Attacks in Graph Neural Networks [30.766013737094532]
我々は,DMGNNを,アウト・オブ・ディストリビューション(OOD)およびイン・ディストリビューション(ID)グラフバックドア攻撃に対して提案する。
DMGNNは、偽説明に基づいてラベル遷移を予測することによって、隠されたIDとOODトリガを容易に識別できる。
DMGNNは最新技術(SOTA)防衛法をはるかに上回り、モデル性能のほとんど無視できる劣化を伴って攻撃成功率を5%に低下させる。
論文 参考訳(メタデータ) (2024-10-18T01:08:03Z) - Robustness-Inspired Defense Against Backdoor Attacks on Graph Neural Networks [30.82433380830665]
グラフニューラルネットワーク(GNN)は,ノード分類やグラフ分類といったタスクにおいて,有望な結果を達成している。
最近の研究で、GNNはバックドア攻撃に弱いことが判明し、実際の採用に重大な脅威をもたらしている。
本研究では,裏口検出にランダムなエッジドロップを用いることにより,汚染ノードとクリーンノードを効率的に識別できることを理論的に示す。
論文 参考訳(メタデータ) (2024-06-14T08:46:26Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Rethinking the Trigger-injecting Position in Graph Backdoor Attack [7.4968235623939155]
バックドア攻撃は、機械学習モデルのセキュリティ脅威として実証されている。
本稿では,グラフニューラルネットワーク(GNN)のバックドア攻撃に対する2つのトリガーインジェクション戦略について検討する。
その結果, LIASの性能は向上し, LIASとMIASの差は大きいことがわかった。
論文 参考訳(メタデータ) (2023-04-05T07:50:05Z) - Unnoticeable Backdoor Attacks on Graph Neural Networks [29.941951380348435]
特に、バックドアアタックは、トレーニンググラフ内の一連のノードにトリガーとターゲットクラスラベルをアタッチすることで、グラフを毒する。
本稿では,攻撃予算が制限されたグラフバックドア攻撃の新たな問題について検討する。
論文 参考訳(メタデータ) (2023-02-11T01:50:58Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Backdoor Defense via Suppressing Model Shortcuts [91.30995749139012]
本稿では,モデル構造の角度からバックドア機構を探索する。
攻撃成功率 (ASR) は, キースキップ接続の出力を減少させると著しく低下することを示した。
論文 参考訳(メタデータ) (2022-11-02T15:39:19Z) - Defending Against Backdoor Attack on Graph Nerual Network by
Explainability [7.147386524788604]
GNNにおける最初のバックドア検出・防御手法を提案する。
グラフデータでは、現在のバックドアアタックは、トリガーを注入するためにグラフ構造を操作することに焦点を当てている。
その結果,いくつかの説明的評価指標では,良性サンプルと悪質サンプルとの間に明らかな違いがあることが判明した。
論文 参考訳(メタデータ) (2022-09-07T03:19:29Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Backdoor Attacks to Graph Neural Networks [73.56867080030091]
グラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃を提案する。
我々のバックドア攻撃では、GNNは、事前に定義されたサブグラフがテストグラフに注入されると、テストグラフに対するアタッカー・チョーセンターゲットラベルを予測する。
実験の結果,我々のバックドア攻撃はクリーンなテストグラフに対するGNNの予測精度に小さな影響を与えていることがわかった。
論文 参考訳(メタデータ) (2020-06-19T14:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。