論文の概要: A clean-label graph backdoor attack method in node classification task
- arxiv url: http://arxiv.org/abs/2401.00163v1
- Date: Sat, 30 Dec 2023 07:58:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 18:28:43.954062
- Title: A clean-label graph backdoor attack method in node classification task
- Title(参考訳): ノード分類タスクにおけるクリーンラベルグラフバックドア攻撃法
- Authors: Xiaogang Xing, Ming Xu, Yujing Bai and Dongdong Yang
- Abstract要約: 本稿では,クリーンラベルグラフバックドア攻撃法(CGBA)を提案する。
中毒率が0.04のとき、CGBAは平均攻撃成功率87.8%、98.9%、89.1%、98.5%を達成できる。
- 参考スコア(独自算出の注目度): 2.2568730034659725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Backdoor attacks in the traditional graph neural networks (GNNs) field are
easily detectable due to the dilemma of confusing labels. To explore the
backdoor vulnerability of GNNs and create a more stealthy backdoor attack
method, a clean-label graph backdoor attack method(CGBA) in the node
classification task is proposed in this paper. Differently from existing
backdoor attack methods, CGBA requires neither modification of node labels nor
graph structure. Specifically, to solve the problem of inconsistency between
the contents and labels of the samples, CGBA selects poisoning samples in a
specific target class and uses the label of sample as the target label (i.e.,
clean-label) after injecting triggers into the target samples. To guarantee the
similarity of neighboring nodes, the raw features of the nodes are elaborately
picked as triggers to further improve the concealment of the triggers.
Extensive experiments results show the effectiveness of our method. When the
poisoning rate is 0.04, CGBA can achieve an average attack success rate of
87.8%, 98.9%, 89.1%, and 98.5%, respectively.
- Abstract(参考訳): 従来のグラフニューラルネットワーク(GNN)フィールドでのバックドア攻撃は、混乱したラベルのジレンマのために容易に検出できる。
本稿では,GNNのバックドア脆弱性を探究し,よりステルスなバックドア攻撃法を作成するために,ノード分類タスクにおけるクリーンラベルグラフバックドア攻撃法(CGBA)を提案する。
既存のバックドア攻撃法とは異なり、cgbaはノードラベルやグラフ構造を変更する必要はない。
具体的には、サンプルの内容とラベルの整合性の問題を解決するために、特定のターゲットクラスで毒物サンプルを選択し、ターゲットサンプルにトリガーを注入した後、サンプルのラベルをターゲットラベル(すなわちクリーンラベル)として使用する。
隣接ノードの類似性を保証するために、ノードの生の特徴をトリガーとして精巧に選択し、トリガーの隠蔽をさらに改善する。
広範な実験の結果,本手法の有効性が示された。
中毒率0.04の場合、cgbaは87.8%、98.9%、89.1%、98.5%の平均攻撃成功率を達成できる。
関連論文リスト
- Backdoor Attack with Sparse and Invisible Trigger [60.84183404621145]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Unnoticeable Backdoor Attacks on Graph Neural Networks [29.941951380348435]
特に、バックドアアタックは、トレーニンググラフ内の一連のノードにトリガーとターゲットクラスラベルをアタッチすることで、グラフを毒する。
本稿では,攻撃予算が制限されたグラフバックドア攻撃の新たな問題について検討する。
論文 参考訳(メタデータ) (2023-02-11T01:50:58Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Invisible Backdoor Attacks Using Data Poisoning in the Frequency Domain [8.64369418938889]
周波数領域に基づく一般化されたバックドア攻撃手法を提案する。
トレーニングプロセスのミスラベルやアクセスをすることなく、バックドアのインプラントを実装できる。
我々は,3つのデータセットに対して,ラベルなし,クリーンラベルのケースにおけるアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-09T07:05:53Z) - Detecting Backdoor Poisoning Attacks on Deep Neural Networks by Heatmap
Clustering [0.0]
本研究では,適切な検出手法について検討し,ヒートマップクラスタリングと呼ばれる新しい手法を提案する。
目標は、データセット内の無毒データから有毒データを分離することだ。
ヒートマップクラスタリングは、アクティベーションクラスタリングよりも一貫してパフォーマンスが良いことを示す。
論文 参考訳(メタデータ) (2022-04-27T11:17:23Z) - AntidoteRT: Run-time Detection and Correction of Poison Attacks on
Neural Networks [18.461079157949698]
画像分類ネットワークに対する バックドア毒殺攻撃
本稿では,毒殺攻撃に対する簡易な自動検出・補正手法を提案する。
我々の手法は、一般的なベンチマークにおいて、NeuralCleanseやSTRIPといった既存の防御よりも優れています。
論文 参考訳(メタデータ) (2022-01-31T23:42:32Z) - Rethinking Pseudo Labels for Semi-Supervised Object Detection [84.697097472401]
物体検出に適した確実な擬似ラベルを導入する。
我々は,クラス不均衡問題を緩和するために,各カテゴリの擬似ラベルと再重み付き損失関数を生成するために使用する閾値を動的に調整する。
提案手法では,COCOのラベル付きデータのみを用いて,教師付きベースラインを最大10%改善する。
論文 参考訳(メタデータ) (2021-06-01T01:32:03Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - GreedyFool: Distortion-Aware Sparse Adversarial Attack [138.55076781355206]
現代のディープニューラルネットワーク(DNN)は、敵のサンプルに対して脆弱である。
スパース逆数サンプルは、数ピクセルだけを摂動させることでターゲットモデルを騙すことができる。
GreedyFoolと呼ばれる2段階の歪みを考慮したグリーディ法を提案する。
論文 参考訳(メタデータ) (2020-10-26T17:59:07Z) - Backdoor Attacks to Graph Neural Networks [73.56867080030091]
グラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃を提案する。
我々のバックドア攻撃では、GNNは、事前に定義されたサブグラフがテストグラフに注入されると、テストグラフに対するアタッカー・チョーセンターゲットラベルを予測する。
実験の結果,我々のバックドア攻撃はクリーンなテストグラフに対するGNNの予測精度に小さな影響を与えていることがわかった。
論文 参考訳(メタデータ) (2020-06-19T14:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。