論文の概要: A Set of Generalized Components to Achieve Effective Poison-only Clean-label Backdoor Attacks with Collaborative Sample Selection and Triggers
- arxiv url: http://arxiv.org/abs/2509.19947v1
- Date: Wed, 24 Sep 2025 09:58:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.767024
- Title: A Set of Generalized Components to Achieve Effective Poison-only Clean-label Backdoor Attacks with Collaborative Sample Selection and Triggers
- Title(参考訳): 協力的サンプル選択とトリガーによる効果的なポゾン単独クリーンラベルバックドアアタックを実現するための一般成分のセット
- Authors: Zhixiao Wu, Yao Lu, Jie Wen, Hao Sun, Qi Zhou, Guangming Lu,
- Abstract要約: クリーンラベルのバックドアアタックは、ラベルを変更することなく単にデータセットを中毒させることで、攻撃者が望んだ振る舞いをDNNに隠密に注入することを目的としている。
バックドアを効果的に埋め込むため、攻撃成功率(ASR)とステルスネスの様々な攻撃要件に対して複数のテキストブラガーが提案されている。
- 参考スコア(独自算出の注目度): 44.52811445373329
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Poison-only Clean-label Backdoor Attacks aim to covertly inject attacker-desired behavior into DNNs by merely poisoning the dataset without changing the labels. To effectively implant a backdoor, multiple \textbf{triggers} are proposed for various attack requirements of Attack Success Rate (ASR) and stealthiness. Additionally, sample selection enhances clean-label backdoor attacks' ASR by meticulously selecting ``hard'' samples instead of random samples to poison. Current methods 1) usually handle the sample selection and triggers in isolation, leading to severely limited improvements on both ASR and stealthiness. Consequently, attacks exhibit unsatisfactory performance on evaluation metrics when converted to PCBAs via a mere stacking of methods. Therefore, we seek to explore the bidirectional collaborative relations between the sample selection and triggers to address the above dilemma. 2) Since the strong specificity within triggers, the simple combination of sample selection and triggers fails to substantially enhance both evaluation metrics, with generalization preserved among various attacks. Therefore, we seek to propose a set of components to significantly improve both stealthiness and ASR based on the commonalities of attacks. Specifically, Component A ascertains two critical selection factors, and then makes them an appropriate combination based on the trigger scale to select more reasonable ``hard'' samples for improving ASR. Component B is proposed to select samples with similarities to relevant trigger implanted samples to promote stealthiness. Component C reassigns trigger poisoning intensity on RGB colors through distinct sensitivity of the human visual system to RGB for higher ASR, with stealthiness ensured by sample selection, including Component B. Furthermore, all components can be strategically integrated into diverse PCBAs.
- Abstract(参考訳): ポゾンのみのクリーンラベルバックドアアタックは、ラベルを変更することなく単にデータセットを中毒させることで、攻撃者が望んだ振る舞いをDNNに隠密に注入することを目的としている。
バックドアを効果的に移植するために、攻撃成功率(ASR)とステルスネスの様々な攻撃要件に対して、複数の \textbf{triggers} を提案する。
さらにサンプル選択は、ランダムサンプルではなく `hard'' サンプルを慎重に選択することで、クリーンラベルバックドア攻撃のASRを強化する。
現在の方法
1) 通常、サンプルの選択とトリガーを分離して処理し、ASRとステルスネスの両方で大幅に改善される。
その結果、アタックは、単なる積み重ねによるPCBAに変換された場合、評価指標に不満足な性能を示す。
そこで本研究では, サンプル選択とトリガの双方向協調関係を探索し, 上記のジレンマに対処する。
2) トリガー内での強い特異性のため, サンプル選択とトリガーの単純な組み合わせは, 双方の評価指標を大幅に向上させることができず, 様々な攻撃で一般化が保たれている。
そこで本研究では,攻撃の共通性に基づいて,ステルスネスとASRの両方を改善するためのコンポーネントセットを提案する。
具体的には、コンポーネントAは2つの重要な選択因子を確定し、トリガースケールに基づいて適切な組み合わせを行い、ASRを改善するためにより合理的な `hard'' サンプルを選択する。
コンポーネントBは、ステルス性を促進するために、関連するトリガー注入サンプルと類似したサンプルを選択するために提案されている。
成分Cの再割り当ては、ヒトの視覚系の異なる感度でRGBにRGBを誘導し、成分Bを含むサンプル選択によってステルス性を確保し、また、全ての成分を様々なPCBAに戦略的に統合することができる。
関連論文リスト
- Strategic Sample Selection for Improved Clean-Label Backdoor Attacks in Text Classification [0.0]
クリーンラベルシナリオにおける攻撃効率向上のための3つのサンプル選択手法を提案する。
提案手法は,モデルが誤った又は低い信頼度で予測するサンプルを識別し,そのようなサンプルにバックドアトリガを注入することにより,トリガーパターンと攻撃者が望んだターゲットラベルとのより強い関連性を誘導することを目的とする。
その結果,提案手法はランダムなサンプル選択よりもASRを大幅に改善し,モデルのクリーンな精度をほとんどあるいは全く損なわないことがわかった。
論文 参考訳(メタデータ) (2025-08-21T19:53:26Z) - AdvQDet: Detecting Query-Based Adversarial Attacks with Adversarial Contrastive Prompt Tuning [93.77763753231338]
CLIP画像エンコーダを微調整し、2つの中間対向クエリに対して同様の埋め込みを抽出するために、ACPT(Adversarial Contrastive Prompt Tuning)を提案する。
我々は,ACPTが7つの最先端クエリベースの攻撃を検出できることを示す。
また,ACPTは3種類のアダプティブアタックに対して堅牢であることを示す。
論文 参考訳(メタデータ) (2024-08-04T09:53:50Z) - CBPF: Filtering Poisoned Data Based on Composite Backdoor Attack [11.815603563125654]
本稿では, 汚染試料のろ過を調べた結果, バックドア攻撃のリスク軽減策について検討した。
CBPF (Composite Backdoor Poison Filtering) と呼ばれる新しい3段階毒素データフィルタリング手法が有効な解法として提案されている。
論文 参考訳(メタデータ) (2024-06-23T14:37:24Z) - Protecting Model Adaptation from Trojans in the Unlabeled Data [120.42853706967188]
本稿では,よく設計された毒物標的データによるモデル適応に対するトロイの木馬攻撃の可能性について検討する。
本稿では,既存の適応アルゴリズムとシームレスに統合可能なDiffAdaptというプラグイン・アンド・プレイ手法を提案する。
論文 参考訳(メタデータ) (2024-01-11T16:42:10Z) - Stealthy Backdoor Attack via Confidence-driven Sampling [49.72680157684523]
バックドア攻撃は、悪質なトリガをDNNモデルに過剰に挿入することを目的としており、テストシナリオ中に不正な制御を許可している。
既存の方法では防衛戦略に対する堅牢性が欠如しており、主に無作為な試薬を無作為に選別しながら、引き金の盗難を強化することに重点を置いている。
信頼性スコアの低いサンプルを選別し、これらの攻撃を識別・対処する上で、守備側の課題を著しく増大させる。
論文 参考訳(メタデータ) (2023-10-08T18:57:36Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z) - Generative Adversarial Network-Driven Detection of Adversarial Tasks in
Mobile Crowdsensing [5.675436513661266]
クラウドセンシングシステムは、不特定かつユビキタスなプロパティの上に構築されるため、さまざまな攻撃に対して脆弱である。
以前の研究では、GANベースの攻撃は実験的に設計された攻撃サンプルよりも重大な破壊力を示すことが示唆されている。
本稿では,GANモデルを統合することにより,知的に設計された不正なセンシングサービス要求を検出することを目的とする。
論文 参考訳(メタデータ) (2022-02-16T00:23:25Z) - A BIC based Mixture Model Defense against Data Poisoning Attacks on
Classifiers [24.53226962899903]
Data Poisoning (DP) は、訓練された分類器が入力を誤って分類する効果的な攻撃である。
本稿では,DP攻撃に対する新しい混合モデル防御法を提案する。
論文 参考訳(メタデータ) (2021-05-28T01:06:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。