論文の概要: A semantic backdoor attack against Graph Convolutional Networks
- arxiv url: http://arxiv.org/abs/2302.14353v1
- Date: Tue, 28 Feb 2023 07:11:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-01 17:48:05.420366
- Title: A semantic backdoor attack against Graph Convolutional Networks
- Title(参考訳): グラフ畳み込みネットワークに対する意味的バックドア攻撃
- Authors: Jiazhu Dai, Zhipeng Xiong
- Abstract要約: グラフ畳み込みネットワーク(GCN)は敵の攻撃に対して脆弱である。
GCNが直面しているセキュリティの脅威の1つは、バックドア攻撃である。
我々はGCNに対するブラックボックスセマンティックバックドア攻撃を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Convolutional Networks (GCNs) have been very effective in addressing
the issue of various graph-structured related tasks, such as node
classification and graph classification. However, extensive research has shown
that GCNs are vulnerable to adversarial attacks. One of the security threats
facing GCNs is the backdoor attack, which hides incorrect classification rules
in models and activates only when the model encounters specific inputs
containing special features (e.g., fixed patterns like subgraphs, called
triggers), thus outputting incorrect classification results, while the model
behaves normally on benign samples. The semantic backdoor attack is a type of
the backdoor attack where the trigger is a semantic part of the sample; i.e.,
the trigger exists naturally in the original dataset and the attacker can pick
a naturally occurring feature as the backdoor trigger, which causes the model
to misclassify even unmodified inputs. Meanwhile, it is difficult to detect
even if the attacker modifies the input samples in the inference phase as they
do not have any anomaly compared to normal samples. Thus, semantic backdoor
attacks are more imperceptible than non-semantic ones. However, existed
research on semantic backdoor attacks has only focused on image and text
domains, which have not been well explored against GCNs. In this work, we
propose a black-box Semantic Backdoor Attack (SBA) against GCNs. We assign the
trigger as a certain class of nodes in the dataset and our trigger is semantic.
Through evaluation on several real-world benchmark graph datasets, the
experimental results demonstrate that our proposed SBA can achieve almost 100%
attack success rate under the poisoning rate less than 5% while having no
impact on normal predictive accuracy.
- Abstract(参考訳): グラフ畳み込みネットワーク(GCN)は、ノード分類やグラフ分類など、様々なグラフ構造化タスクの問題に対処するのに非常に効果的である。
しかし、広範な研究により、GCNは敵の攻撃に弱いことが示されている。
GCNが直面しているセキュリティ上の脅威の1つは、モデルに誤った分類規則を隠蔽し、特定の特徴を含む特定の入力(例えば、トリガーと呼ばれるサブグラフのような固定されたパターン)に遭遇したときのみアクティベートするバックドア攻撃である。
セマンティクスバックドアアタック(semantic backdoor attack)は、トリガがサンプルのセマンティクス部分であるバックドアアタックの一種である。すなわち、トリガは元のデータセットに自然に存在するもので、攻撃者はバックドアアタックとして自然に発生する特徴を選択できる。
一方、通常のサンプルと比較して異常がないため、攻撃者が推論フェーズで入力サンプルを修正しても検出が困難である。
したがって、セマンティクスバックドア攻撃は非セマンティクス攻撃よりも不可避である。
しかし、セマンティックバックドア攻撃の研究は、GCNに対して十分に研究されていない画像とテキストドメインのみに焦点を当てている。
本稿では,gcnsに対するblack-box semantic backdoor attack (sba)を提案する。
我々は、データセット内の特定のノードのクラスとしてトリガーを割り当て、トリガーはセマンティックです。
実世界のベンチマークグラフデータセットの評価を通じて, 提案したSBAは, 通常の予測精度に影響を与えることなく, 5%未満の毒性率で攻撃成功率をほぼ100%達成できることを示した。
関連論文リスト
- DMGNN: Detecting and Mitigating Backdoor Attacks in Graph Neural Networks [30.766013737094532]
我々は,DMGNNを,アウト・オブ・ディストリビューション(OOD)およびイン・ディストリビューション(ID)グラフバックドア攻撃に対して提案する。
DMGNNは、偽説明に基づいてラベル遷移を予測することによって、隠されたIDとOODトリガを容易に識別できる。
DMGNNは最新技術(SOTA)防衛法をはるかに上回り、モデル性能のほとんど無視できる劣化を伴って攻撃成功率を5%に低下させる。
論文 参考訳(メタデータ) (2024-10-18T01:08:03Z) - Robustness-Inspired Defense Against Backdoor Attacks on Graph Neural Networks [30.82433380830665]
グラフニューラルネットワーク(GNN)は,ノード分類やグラフ分類といったタスクにおいて,有望な結果を達成している。
最近の研究で、GNNはバックドア攻撃に弱いことが判明し、実際の採用に重大な脅威をもたらしている。
本研究では,裏口検出にランダムなエッジドロップを用いることにより,汚染ノードとクリーンノードを効率的に識別できることを理論的に示す。
論文 参考訳(メタデータ) (2024-06-14T08:46:26Z) - A Clean-graph Backdoor Attack against Graph Convolutional Networks with Poisoned Label Only [0.0]
本稿では,ノード分類タスクにおけるGCN(CBAG)に対するクリーングラフバックドア攻撃を提案する。
トレーニングラベルを汚染することにより、隠れたバックドアがGCNsモデルに注入される。
実験の結果,クリーングラフバックドアは99%の攻撃成功率が得られることがわかった。
論文 参考訳(メタデータ) (2024-04-19T08:21:54Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - FreeEagle: Detecting Complex Neural Trojans in Data-Free Cases [50.065022493142116]
バックドア攻撃とも呼ばれるディープニューラルネットワークに対するトロイの木馬攻撃は、人工知能に対する典型的な脅威である。
FreeEagleは、複雑なバックドア攻撃を効果的に検出できる最初のデータフリーバックドア検出方法である。
論文 参考訳(メタデータ) (2023-02-28T11:31:29Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Defending Against Backdoor Attack on Graph Nerual Network by
Explainability [7.147386524788604]
GNNにおける最初のバックドア検出・防御手法を提案する。
グラフデータでは、現在のバックドアアタックは、トリガーを注入するためにグラフ構造を操作することに焦点を当てている。
その結果,いくつかの説明的評価指標では,良性サンプルと悪質サンプルとの間に明らかな違いがあることが判明した。
論文 参考訳(メタデータ) (2022-09-07T03:19:29Z) - Adversarial Fine-tuning for Backdoor Defense: Connect Adversarial
Examples to Triggered Samples [15.57457705138278]
本稿では,バックドアトリガを除去する新たなAFT手法を提案する。
AFTは、クリーンサンプルの性能劣化を明白にすることなく、バックドアトリガを効果的に消去することができる。
論文 参考訳(メタデータ) (2022-02-13T13:41:15Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Rethinking the Trigger of Backdoor Attack [83.98031510668619]
現在、既存のバックドア攻撃のほとんどは、トレーニングとテスト用の画像は同じ外観で、同じエリアに置かれている。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、このような攻撃パラダイムが脆弱であることを示す。
論文 参考訳(メタデータ) (2020-04-09T17:19:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。