論文の概要: A semantic backdoor attack against Graph Convolutional Networks
- arxiv url: http://arxiv.org/abs/2302.14353v2
- Date: Sat, 5 Aug 2023 04:58:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-08 23:47:37.171054
- Title: A semantic backdoor attack against Graph Convolutional Networks
- Title(参考訳): グラフ畳み込みネットワークに対する意味的バックドア攻撃
- Authors: Jiazhu Dai, Zhipeng Xiong
- Abstract要約: グラフ畳み込みネットワーク(GCN)に対するセマンティックバックドア攻撃を提案する。
SBAGはサンプルの特定の種類のノードをバックドアトリガーとして使用し、中毒訓練データを通じてGCNモデルに隠れたバックドアを注入する。
SBAGは2種類の攻撃サンプルに対して約99.9%の攻撃成功率と82%以上の攻撃成功率を達成することができる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Convolutional Networks (GCNs) have been very effective in addressing
the issue of various graph-structured related tasks, such as node
classification and graph classification. However, recent research has shown
that GCNs are vulnerable to a new type of threat called the backdoor attack,
where the adversary can inject hidden backdoor into the GCNs so that the
attacked model performs well on benign samples, whereas its prediction will be
maliciously changed to the attacker-specified target label if the hidden
backdoor is activated by the attacker-defined trigger. In this paper, we
investigate whether such semantic backdoor attacks are possible for GCNs and
propose a Semantic Backdoor Attack against GCNs(SBAG) under the context of
graph classification to reveal the existence of this security vulnerability in
GCNs. The SBAG uses a certain type of node in the samples as a backdoor trigger
and injects hidden backdoor into GCNs models through poisoning training data.
The backdoor will be activated and the GCNs models will give malicious
classification results specified by the attacker even on unmodified samples as
long as the samples contain enough trigger nodes. We evaluate the SBAG on four
graph datasets. The experimental results indicate that the SBAG can achieve
attack success rate of around 99.9% and over 82% for two kinds of attack
samples respectively,with poisoning rate of less than 5%.
- Abstract(参考訳): グラフ畳み込みネットワーク(GCN)は、ノード分類やグラフ分類など、様々なグラフ構造化タスクの問題に対処するのに非常に効果的である。
しかし、最近の研究では、GCNはバックドア攻撃と呼ばれる新たな種類の脅威に弱いことが示されており、攻撃されたモデルが良性サンプルで良好に動作するように、敵が隠れたバックドアをGCNに注入することができる。
本稿では,このようなセマンティックなバックドア攻撃がGCNに対して可能かどうかを考察し,GCNにおけるセキュリティ脆弱性の存在を明らかにするために,グラフ分類の文脈下でのSBAG(Semantic Backdoor Attack)を提案する。
SBAGはサンプルの特定の種類のノードをバックドアトリガーとして使用し、中毒訓練データを通じてGCNモデルに隠れたバックドアを注入する。
バックドアがアクティベートされ、GCNsモデルは、サンプルが十分なトリガーノードを含む限り、修正されていないサンプルでも攻撃者が指定した悪意のある分類結果を与える。
SBAGを4つのグラフデータセット上で評価する。
実験の結果、SBAGは2種類の攻撃サンプルに対して、それぞれ99.9%と82%以上の攻撃成功率を達成でき、毒性率は5%未満であることが示唆された。
関連論文リスト
- DMGNN: Detecting and Mitigating Backdoor Attacks in Graph Neural Networks [30.766013737094532]
我々は,DMGNNを,アウト・オブ・ディストリビューション(OOD)およびイン・ディストリビューション(ID)グラフバックドア攻撃に対して提案する。
DMGNNは、偽説明に基づいてラベル遷移を予測することによって、隠されたIDとOODトリガを容易に識別できる。
DMGNNは最新技術(SOTA)防衛法をはるかに上回り、モデル性能のほとんど無視できる劣化を伴って攻撃成功率を5%に低下させる。
論文 参考訳(メタデータ) (2024-10-18T01:08:03Z) - Robustness-Inspired Defense Against Backdoor Attacks on Graph Neural Networks [30.82433380830665]
グラフニューラルネットワーク(GNN)は,ノード分類やグラフ分類といったタスクにおいて,有望な結果を達成している。
最近の研究で、GNNはバックドア攻撃に弱いことが判明し、実際の採用に重大な脅威をもたらしている。
本研究では,裏口検出にランダムなエッジドロップを用いることにより,汚染ノードとクリーンノードを効率的に識別できることを理論的に示す。
論文 参考訳(メタデータ) (2024-06-14T08:46:26Z) - A Clean-graph Backdoor Attack against Graph Convolutional Networks with Poisoned Label Only [0.0]
本稿では,ノード分類タスクにおけるGCN(CBAG)に対するクリーングラフバックドア攻撃を提案する。
トレーニングラベルを汚染することにより、隠れたバックドアがGCNsモデルに注入される。
実験の結果,クリーングラフバックドアは99%の攻撃成功率が得られることがわかった。
論文 参考訳(メタデータ) (2024-04-19T08:21:54Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - FreeEagle: Detecting Complex Neural Trojans in Data-Free Cases [50.065022493142116]
バックドア攻撃とも呼ばれるディープニューラルネットワークに対するトロイの木馬攻撃は、人工知能に対する典型的な脅威である。
FreeEagleは、複雑なバックドア攻撃を効果的に検出できる最初のデータフリーバックドア検出方法である。
論文 参考訳(メタデータ) (2023-02-28T11:31:29Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Defending Against Backdoor Attack on Graph Nerual Network by
Explainability [7.147386524788604]
GNNにおける最初のバックドア検出・防御手法を提案する。
グラフデータでは、現在のバックドアアタックは、トリガーを注入するためにグラフ構造を操作することに焦点を当てている。
その結果,いくつかの説明的評価指標では,良性サンプルと悪質サンプルとの間に明らかな違いがあることが判明した。
論文 参考訳(メタデータ) (2022-09-07T03:19:29Z) - Adversarial Fine-tuning for Backdoor Defense: Connect Adversarial
Examples to Triggered Samples [15.57457705138278]
本稿では,バックドアトリガを除去する新たなAFT手法を提案する。
AFTは、クリーンサンプルの性能劣化を明白にすることなく、バックドアトリガを効果的に消去することができる。
論文 参考訳(メタデータ) (2022-02-13T13:41:15Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Rethinking the Trigger of Backdoor Attack [83.98031510668619]
現在、既存のバックドア攻撃のほとんどは、トレーニングとテスト用の画像は同じ外観で、同じエリアに置かれている。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。
論文 参考訳(メタデータ) (2020-04-09T17:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。