論文の概要: Explainability-based Backdoor Attacks Against Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2104.03674v1
- Date: Thu, 8 Apr 2021 10:43:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-09 20:44:40.809834
- Title: Explainability-based Backdoor Attacks Against Graph Neural Networks
- Title(参考訳): 説明可能性に基づくグラフニューラルネットワークに対するバックドア攻撃
- Authors: Jing Xu, Minhui (Jason) Xue, Stjepan Picek
- Abstract要約: ニューラルネットワークにはバックドア攻撃に関する多くの研究があるが、グラフニューラルネットワーク(gnn)を考えるものはごくわずかである。
我々は2つの強力なGNN説明可能性アプローチを適用し、最適なトリガー注入位置を選択し、2つの攻撃目標を達成します。
ベンチマークデータセットと最先端ニューラルネットワークモデルを用いた実験結果から,提案手法の有効性を示す。
- 参考スコア(独自算出の注目度): 9.179577599489559
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Backdoor attacks represent a serious threat to neural network models. A
backdoored model will misclassify the trigger-embedded inputs into an
attacker-chosen target label while performing normally on other benign inputs.
There are already numerous works on backdoor attacks on neural networks, but
only a few works consider graph neural networks (GNNs). As such, there is no
intensive research on explaining the impact of trigger injecting position on
the performance of backdoor attacks on GNNs.
To bridge this gap, we conduct an experimental investigation on the
performance of backdoor attacks on GNNs. We apply two powerful GNN
explainability approaches to select the optimal trigger injecting position to
achieve two attacker objectives -- high attack success rate and low clean
accuracy drop. Our empirical results on benchmark datasets and state-of-the-art
neural network models demonstrate the proposed method's effectiveness in
selecting trigger injecting position for backdoor attacks on GNNs. For
instance, on the node classification task, the backdoor attack with trigger
injecting position selected by GraphLIME reaches over $84 \%$ attack success
rate with less than $2.5 \%$ accuracy drop
- Abstract(参考訳): バックドア攻撃は、ニューラルネットワークモデルにとって深刻な脅威である。
バックドアモデルでは、トリガー埋め込み入力をアタッカー・チョーゼンターゲットラベルに誤分類し、他の良質な入力で正常に実行する。
ニューラルネットワークのバックドア攻撃には、すでに多くの研究があるが、グラフニューラルネットワーク(gnn)を考えるものはごくわずかである。
そのため、GNNに対するバックドア攻撃のパフォーマンスにトリガー注入位置が及ぼす影響を説明するための集中的な研究は行われていない。
このギャップを埋めるため,我々はgnnにおけるバックドア攻撃の性能を実験的に検討する。
我々は、2つの強力なGNN説明可能性アプローチを適用し、最適なトリガー注入位置を選択して2つの攻撃目標を達成する。
ベンチマークデータセットと最先端ニューラルネットワークモデルを用いた実験結果から,GNNに対するバックドア攻撃に対するトリガ注入位置の選択において,提案手法の有効性が示された。
例えば、ノード分類タスクでは、GraphLIMEが選択したトリガー注入位置によるバックドアアタックが、2.5ドル未満の精度低下で、攻撃成功率が84ドル以上に達する。
関連論文リスト
- Robustness-Inspired Defense Against Backdoor Attacks on Graph Neural Networks [30.82433380830665]
グラフニューラルネットワーク(GNN)は,ノード分類やグラフ分類といったタスクにおいて,有望な結果を達成している。
最近の研究で、GNNはバックドア攻撃に弱いことが判明し、実際の採用に重大な脅威をもたらしている。
本研究では,裏口検出にランダムなエッジドロップを用いることにより,汚染ノードとクリーンノードを効率的に識別できることを理論的に示す。
論文 参考訳(メタデータ) (2024-06-14T08:46:26Z) - Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - A backdoor attack against link prediction tasks with graph neural
networks [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理可能なディープラーニングモデルのクラスである。
近年の研究では、GNNモデルがバックドア攻撃に弱いことが報告されている。
本稿では,GNNに基づくリンク予測タスクに対するバックドア攻撃を提案する。
論文 参考訳(メタデータ) (2024-01-05T06:45:48Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Unnoticeable Backdoor Attacks on Graph Neural Networks [29.941951380348435]
特に、バックドアアタックは、トレーニンググラフ内の一連のノードにトリガーとターゲットクラスラベルをアタッチすることで、グラフを毒する。
本稿では,攻撃予算が制限されたグラフバックドア攻撃の新たな問題について検討する。
論文 参考訳(メタデータ) (2023-02-11T01:50:58Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Defending Against Backdoor Attack on Graph Nerual Network by
Explainability [7.147386524788604]
GNNにおける最初のバックドア検出・防御手法を提案する。
グラフデータでは、現在のバックドアアタックは、トリガーを注入するためにグラフ構造を操作することに焦点を当てている。
その結果,いくつかの説明的評価指標では,良性サンプルと悪質サンプルとの間に明らかな違いがあることが判明した。
論文 参考訳(メタデータ) (2022-09-07T03:19:29Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Backdoor Attacks to Graph Neural Networks [73.56867080030091]
グラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃を提案する。
我々のバックドア攻撃では、GNNは、事前に定義されたサブグラフがテストグラフに注入されると、テストグラフに対するアタッカー・チョーセンターゲットラベルを予測する。
実験の結果,我々のバックドア攻撃はクリーンなテストグラフに対するGNNの予測精度に小さな影響を与えていることがわかった。
論文 参考訳(メタデータ) (2020-06-19T14:51:01Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。