論文の概要: A clean-label graph backdoor attack method in node classification task
- arxiv url: http://arxiv.org/abs/2401.00163v1
- Date: Sat, 30 Dec 2023 07:58:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 18:28:43.954062
- Title: A clean-label graph backdoor attack method in node classification task
- Title(参考訳): ノード分類タスクにおけるクリーンラベルグラフバックドア攻撃法
- Authors: Xiaogang Xing, Ming Xu, Yujing Bai and Dongdong Yang
- Abstract要約: 本稿では,クリーンラベルグラフバックドア攻撃法(CGBA)を提案する。
中毒率が0.04のとき、CGBAは平均攻撃成功率87.8%、98.9%、89.1%、98.5%を達成できる。
- 参考スコア(独自算出の注目度): 2.2568730034659725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Backdoor attacks in the traditional graph neural networks (GNNs) field are
easily detectable due to the dilemma of confusing labels. To explore the
backdoor vulnerability of GNNs and create a more stealthy backdoor attack
method, a clean-label graph backdoor attack method(CGBA) in the node
classification task is proposed in this paper. Differently from existing
backdoor attack methods, CGBA requires neither modification of node labels nor
graph structure. Specifically, to solve the problem of inconsistency between
the contents and labels of the samples, CGBA selects poisoning samples in a
specific target class and uses the label of sample as the target label (i.e.,
clean-label) after injecting triggers into the target samples. To guarantee the
similarity of neighboring nodes, the raw features of the nodes are elaborately
picked as triggers to further improve the concealment of the triggers.
Extensive experiments results show the effectiveness of our method. When the
poisoning rate is 0.04, CGBA can achieve an average attack success rate of
87.8%, 98.9%, 89.1%, and 98.5%, respectively.
- Abstract(参考訳): 従来のグラフニューラルネットワーク(GNN)フィールドでのバックドア攻撃は、混乱したラベルのジレンマのために容易に検出できる。
本稿では,GNNのバックドア脆弱性を探究し,よりステルスなバックドア攻撃法を作成するために,ノード分類タスクにおけるクリーンラベルグラフバックドア攻撃法(CGBA)を提案する。
既存のバックドア攻撃法とは異なり、cgbaはノードラベルやグラフ構造を変更する必要はない。
具体的には、サンプルの内容とラベルの整合性の問題を解決するために、特定のターゲットクラスで毒物サンプルを選択し、ターゲットサンプルにトリガーを注入した後、サンプルのラベルをターゲットラベル(すなわちクリーンラベル)として使用する。
隣接ノードの類似性を保証するために、ノードの生の特徴をトリガーとして精巧に選択し、トリガーの隠蔽をさらに改善する。
広範な実験の結果,本手法の有効性が示された。
中毒率0.04の場合、cgbaは87.8%、98.9%、89.1%、98.5%の平均攻撃成功率を達成できる。
関連論文リスト
- Any Target Can be Offense: Adversarial Example Generation via Generalized Latent Infection [83.72430401516674]
GAKerは任意のターゲットクラスに対して逆例を構築することができる。
本手法は,未知のクラスに対する攻撃成功率を約14.13%で達成する。
論文 参考訳(メタデータ) (2024-07-17T03:24:09Z) - T2IShield: Defending Against Backdoors on Text-to-Image Diffusion Models [70.03122709795122]
バックドア攻撃の検出, 局所化, 緩和のための総合防御手法T2IShieldを提案する。
バックドアトリガーによって引き起こされた横断アテンションマップの「アシミレーション現象」を見いだす。
バックドアサンプル検出のために、T2IShieldは計算コストの低い88.9$%のF1スコアを達成している。
論文 参考訳(メタデータ) (2024-07-05T01:53:21Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - Can We Trust the Unlabeled Target Data? Towards Backdoor Attack and Defense on Model Adaptation [120.42853706967188]
本研究は, よく設計された毒物標的データによるモデル適応に対するバックドア攻撃の可能性を探る。
既存の適応アルゴリズムと組み合わせたMixAdaptというプラグイン・アンド・プレイ方式を提案する。
論文 参考訳(メタデータ) (2024-01-11T16:42:10Z) - UltraClean: A Simple Framework to Train Robust Neural Networks against Backdoor Attacks [19.369701116838776]
バックドア攻撃は、ディープニューラルネットワークに対する脅威を生じさせている。
彼らは通常、毒を盛ったサンプルを注入することで、悪意のある行動を被害者のモデルに埋め込む。
有毒試料の同定を簡略化する枠組みであるUltraCleanを提案する。
論文 参考訳(メタデータ) (2023-12-17T09:16:17Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Unnoticeable Backdoor Attacks on Graph Neural Networks [29.941951380348435]
特に、バックドアアタックは、トレーニンググラフ内の一連のノードにトリガーとターゲットクラスラベルをアタッチすることで、グラフを毒する。
本稿では,攻撃予算が制限されたグラフバックドア攻撃の新たな問題について検討する。
論文 参考訳(メタデータ) (2023-02-11T01:50:58Z) - Invisible Backdoor Attacks Using Data Poisoning in the Frequency Domain [8.64369418938889]
周波数領域に基づく一般化されたバックドア攻撃手法を提案する。
トレーニングプロセスのミスラベルやアクセスをすることなく、バックドアのインプラントを実装できる。
我々は,3つのデータセットに対して,ラベルなし,クリーンラベルのケースにおけるアプローチを評価した。
論文 参考訳(メタデータ) (2022-07-09T07:05:53Z) - Detecting Backdoor Poisoning Attacks on Deep Neural Networks by Heatmap
Clustering [0.0]
本研究では,適切な検出手法について検討し,ヒートマップクラスタリングと呼ばれる新しい手法を提案する。
目標は、データセット内の無毒データから有毒データを分離することだ。
ヒートマップクラスタリングは、アクティベーションクラスタリングよりも一貫してパフォーマンスが良いことを示す。
論文 参考訳(メタデータ) (2022-04-27T11:17:23Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。