論文の概要: A Semantic and Clean-label Backdoor Attack against Graph Convolutional Networks
- arxiv url: http://arxiv.org/abs/2503.14922v1
- Date: Wed, 19 Mar 2025 06:04:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:25:53.727798
- Title: A Semantic and Clean-label Backdoor Attack against Graph Convolutional Networks
- Title(参考訳): グラフ畳み込みネットワークに対するセマンティックでクリーンなバックドア攻撃
- Authors: Jiazhu Dai, Haoyu Sun,
- Abstract要約: グラフ畳み込みネットワーク(GCN)は,ノード分類やグラフ分類などのグラフ構造化タスクにおいて優れた性能を示した。
最近の研究では、GCNはバックドア攻撃と呼ばれる新しいタイプの脅威に弱いことが示されている。
クリーンラベルバックドア攻撃とセマンティックバックドア攻撃はDeep Neural Networks(DNN)に対する2つの新たなバックドア攻撃である
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Graph Convolutional Networks (GCNs) have shown excellent performance in graph-structured tasks such as node classification and graph classification. However, recent research has shown that GCNs are vulnerable to a new type of threat called the backdoor attack, where the adversary can inject a hidden backdoor into the GCNs so that the backdoored model performs well on benign samples, whereas its prediction will be maliciously changed to the attacker-specified target label if the hidden backdoor is activated by the attacker-defined trigger. Clean-label backdoor attack and semantic backdoor attack are two new backdoor attacks to Deep Neural Networks (DNNs), they are more imperceptible and have posed new and serious threats. The semantic and clean-label backdoor attack is not fully explored in GCNs. In this paper, we propose a semantic and clean-label backdoor attack against GCNs under the context of graph classification to reveal the existence of this security vulnerability in GCNs. Specifically, SCLBA conducts an importance analysis on graph samples to select one type of node as semantic trigger, which is then inserted into the graph samples to create poisoning samples without changing the labels of the poisoning samples to the attacker-specified target label. We evaluate SCLBA on multiple datasets and the results show that SCLBA can achieve attack success rates close to 99% with poisoning rates of less than 3%, and with almost no impact on the performance of model on benign samples.
- Abstract(参考訳): グラフ畳み込みネットワーク(GCN)は,ノード分類やグラフ分類などのグラフ構造化タスクにおいて優れた性能を示した。
しかし、最近の研究では、GCNはバックドア攻撃と呼ばれる新しいタイプの脅威に弱いことが示されており、敵は隠れたバックドアをGCNに注入することで、バックドアモデルが良質なサンプルに対して良好に動作するようにし、一方で、隠れたバックドアが攻撃者定義のトリガーによって活性化された場合、その予測は攻撃者特定ターゲットラベルに悪質に変更される。
クリーンラベルバックドア攻撃とセマンティックバックドア攻撃は、ディープニューラルネットワーク(DNN)に対する2つの新たなバックドア攻撃である。
セマンティックでクリーンなバックドア攻撃はGCNでは十分に調査されていない。
本稿では,GCNにおけるこの脆弱性の存在を明らかにするために,グラフ分類の文脈下でGCNに対するセマンティックでクリーンなバックドア攻撃を提案する。
具体的には、SCLBAは、グラフサンプル上で重要な分析を行い、あるノードをセマンティックトリガーとして選択し、それからグラフサンプルに挿入して、毒サンプルのラベルを攻撃者が特定したターゲットラベルに変更することなく、毒サンプルを生成する。
SCLBA を複数のデータセット上で評価した結果,SCLBA は 3% 未満の毒殺率で 99% に近い攻撃成功率を達成できることが示された。
関連論文リスト
- Robustness Inspired Graph Backdoor Defense [30.82433380830665]
グラフニューラルネットワーク(GNN)は,ノード分類やグラフ分類といったタスクにおいて,有望な結果を達成している。
最近の研究で、GNNはバックドア攻撃に弱いことが判明し、実際の採用に重大な脅威をもたらしている。
本研究では,裏口検出にランダムなエッジドロップを用いることにより,汚染ノードとクリーンノードを効率的に識別できることを理論的に示す。
論文 参考訳(メタデータ) (2024-06-14T08:46:26Z) - A Clean-graph Backdoor Attack against Graph Convolutional Networks with Poisoned Label Only [0.0]
本稿では,ノード分類タスクにおけるGCN(CBAG)に対するクリーングラフバックドア攻撃を提案する。
トレーニングラベルを汚染することにより、隠れたバックドアがGCNsモデルに注入される。
実験の結果,クリーングラフバックドアは99%の攻撃成功率が得られることがわかった。
論文 参考訳(メタデータ) (2024-04-19T08:21:54Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - A semantic backdoor attack against Graph Convolutional Networks [0.0]
セマンティックバックドアアタックはディープニューラルネットワーク(DNN)に対する新しいタイプのバックドアアタックである
グラフ畳み込みネットワーク(GCN)に対するセマンティックバックドア攻撃を提案し,GCNにおけるこの脆弱性の存在を明らかにする。
論文 参考訳(メタデータ) (2023-02-28T07:11:55Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - Defending Against Backdoor Attack on Graph Nerual Network by
Explainability [7.147386524788604]
GNNにおける最初のバックドア検出・防御手法を提案する。
グラフデータでは、現在のバックドアアタックは、トリガーを注入するためにグラフ構造を操作することに焦点を当てている。
その結果,いくつかの説明的評価指標では,良性サンプルと悪質サンプルとの間に明らかな違いがあることが判明した。
論文 参考訳(メタデータ) (2022-09-07T03:19:29Z) - Explainability-based Backdoor Attacks Against Graph Neural Networks [9.179577599489559]
ニューラルネットワークにはバックドア攻撃に関する多くの研究があるが、グラフニューラルネットワーク(gnn)を考えるものはごくわずかである。
我々は2つの強力なGNN説明可能性アプローチを適用し、最適なトリガー注入位置を選択し、2つの攻撃目標を達成します。
ベンチマークデータセットと最先端ニューラルネットワークモデルを用いた実験結果から,提案手法の有効性を示す。
論文 参考訳(メタデータ) (2021-04-08T10:43:40Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Backdoor Attacks to Graph Neural Networks [73.56867080030091]
グラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃を提案する。
我々のバックドア攻撃では、GNNは、事前に定義されたサブグラフがテストグラフに注入されると、テストグラフに対するアタッカー・チョーセンターゲットラベルを予測する。
実験の結果,我々のバックドア攻撃はクリーンなテストグラフに対するGNNの予測精度に小さな影響を与えていることがわかった。
論文 参考訳(メタデータ) (2020-06-19T14:51:01Z) - AN-GCN: An Anonymous Graph Convolutional Network Defense Against
Edge-Perturbing Attack [53.06334363586119]
近年の研究では、エッジ摂動攻撃に対するグラフ畳み込みネットワーク(GCN)の脆弱性が明らかにされている。
まず、エッジ摂動攻撃の定式化を一般化し、ノード分類タスクにおけるこのような攻撃に対するGCNの脆弱性を厳密に証明する。
これに続いて、匿名グラフ畳み込みネットワークAN-GCNがエッジ摂動攻撃に対抗するために提案されている。
論文 参考訳(メタデータ) (2020-05-06T08:15:24Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。