論文の概要: Clean-Label Physical Backdoor Attacks with Data Distillation
- arxiv url: http://arxiv.org/abs/2407.19203v4
- Date: Thu, 14 Aug 2025 20:23:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:22.839783
- Title: Clean-Label Physical Backdoor Attacks with Data Distillation
- Title(参考訳): データ蒸留によるクリーンラベル物理バックドア攻撃
- Authors: Thinh Dao, Khoa D Doan, Kok-Seng Wong,
- Abstract要約: ディープニューラルネットワーク(DNN)は、バックドア中毒の攻撃に弱いことが示されている。
物理的トリガーは攻撃者にとって有望な代替手段であり、デジタル操作なしでリアルタイムでバックドアを起動できる。
既存の物理バックドア攻撃は汚いラベルであり、攻撃者は有害な入力のラベルをターゲットラベルに変更しなければならない。
トレーニング段階でラベル操作やトリガーインジェクションを必要としない新しい物理バックドアアタックのパラダイムであるクリーンラベル物理バックドアアタック(CLPBA)を導入する。
- 参考スコア(独自算出の注目度): 6.472397166280682
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Neural Networks (DNNs) are shown to be vulnerable to backdoor poisoning attacks, with most research focusing on digital triggers -- artificial patterns added to test-time inputs to induce targeted misclassification. Physical triggers, which are natural objects embedded in real-world scenes, offer a promising alternative for attackers, as they can activate backdoors in real-time without digital manipulation. However, existing physical backdoor attacks are dirty-label, meaning that attackers must change the labels of poisoned inputs to the target label. The inconsistency between image content and label exposes the attack to human inspection, reducing its stealthiness in real-world settings. To address this limitation, we introduce Clean-Label Physical Backdoor Attack (CLPBA), a new paradigm of physical backdoor attack that does not require label manipulation and trigger injection at the training stage. Instead, the attacker injects imperceptible perturbations into a small number of target class samples to backdoor a model. By framing the attack as a Dataset Distillation problem, we develop three CLPBA variants -- Parameter Matching, Gradient Matching, and Feature Matching -- that craft effective poisons under both linear probing and full-finetuning training settings. In hard scenarios that require backdoor generalizability in the physical world, CLPBA is shown to even surpass Dirty-label attack baselines. We demonstrate the effectiveness of CLPBA via extensive experiments on two collected physical backdoor datasets for facial recognition and animal classification. The code is available in https://github.com/thinh-dao/Clean-Label-Physical-Backdoor-Attacks.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、バックドアの毒殺攻撃に対して脆弱であることが示されており、ほとんどの研究はデジタルトリガーに焦点を当てている。
物理的なトリガーは、現実世界のシーンに埋め込まれた自然なオブジェクトであり、攻撃者には有望な代替手段を提供する。
しかし、既存の物理バックドア攻撃は汚いラベルであり、攻撃者は毒の入った入力のラベルをターゲットラベルに変更しなければならない。
画像コンテンツとラベルの不整合は、人間の検査に攻撃を暴露し、現実世界の設定におけるステルスネスを減少させる。
この制限に対処するために、トレーニング段階でラベル操作やトリガーインジェクションを必要としない新しい物理バックドアアタックのパラダイムであるクリーンラベル物理バックドアアタック(CLPBA)を導入する。
その代わり、攻撃者は少数のターゲットクラスサンプルに知覚不能な摂動を注入し、モデルをバックドアする。
データセット蒸留問題としてアタックをフレーミングすることで、パラメータマッチング、グラディエントマッチング、フィーチャーマッチングという3つのCLPBAバリアントを開発します。
物理世界におけるバックドアの一般化性を必要とする厳しいシナリオでは、CLPBAはDirty-label攻撃ベースラインを超えている。
CLPBAの有効性を,顔認識と動物分類のための2つの物理的バックドアデータセットの広範囲な実験により実証した。
コードはhttps://github.com/thinh-dao/Clean-Label-Physical-Backdoor-Attacksで入手できる。
関連論文リスト
- Attention-Enhancing Backdoor Attacks Against BERT-based Models [54.070555070629105]
バックドア攻撃の戦略を調べることは、モデルの脆弱性を理解するのに役立つだろう。
本稿では,注意パターンを直接操作することでトロイの木馬行動を向上させる新しいトロイの木馬注意損失(TAL)を提案する。
論文 参考訳(メタデータ) (2023-10-23T01:24:56Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Kallima: A Clean-label Framework for Textual Backdoor Attacks [25.332731545200808]
マイメシススタイルのバックドアサンプルを合成するための,最初のクリーンラベルフレームワークKallimaを提案する。
我々は,対象クラスに属する入力を逆方向の摂動で修正し,モデルがバックドアトリガに依存するようにした。
論文 参考訳(メタデータ) (2022-06-03T21:44:43Z) - Narcissus: A Practical Clean-Label Backdoor Attack with Limited
Information [22.98039177091884]
クリーンラベル」バックドア攻撃には、トレーニングセット全体の知識が必要である。
本稿では,対象クラスの代表例の知識のみに基づいて,クリーンラベルバックドア攻撃をマウントするアルゴリズムを提案する。
私たちの攻撃は、物理的な世界にトリガーが存在する場合でも、データセットやモデル間でうまく機能します。
論文 参考訳(メタデータ) (2022-04-11T16:58:04Z) - Dangerous Cloaking: Natural Trigger based Backdoor Attacks on Object
Detectors in the Physical World [20.385028861767218]
この研究は、既存の物体検出器が物理的バックドア攻撃の影響を受けやすいことを実証している。
このようなバックドアを2つの悪用可能な攻撃シナリオからオブジェクト検出器に埋め込むことができることを示す。
我々は, アンカーベースYolo-V3, Yolo-V4, アンカーフリーCenterNetの3つの人気物体検出アルゴリズムを評価する。
論文 参考訳(メタデータ) (2022-01-21T10:11:27Z) - Turn the Combination Lock: Learnable Textual Backdoor Attacks via Word
Substitution [57.51117978504175]
最近の研究では、ニューラルネットワーク処理(NLP)モデルがバックドア攻撃に弱いことが示されている。
バックドアを注入すると、モデルは通常、良質な例で実行されるが、バックドアがアクティブになったときに攻撃者が特定した予測を生成する。
単語置換の学習可能な組み合わせによって活性化される見えないバックドアを提示する。
論文 参考訳(メタデータ) (2021-06-11T13:03:17Z) - Backdoor Attack in the Physical World [49.64799477792172]
ディープニューラルネットワーク(DNN)に隠れたバックドアを注入するバックドア攻撃
既存のバックドア攻撃のほとんどは、トレーニングおよびテスト画像にまたがる静的トリガ、すなわち$$トリガの設定を採用した。
テスト画像のトリガーがトレーニングで使用されるものと一致していない場合、この攻撃パラダイムは脆弱であることを示す。
論文 参考訳(メタデータ) (2021-04-06T08:37:33Z) - Hidden Backdoor Attack against Semantic Segmentation Models [60.0327238844584]
Emphbackdoor攻撃は、深層ニューラルネットワーク(DNN)に隠れたバックドアを埋め込み、トレーニングデータに毒を盛ることを目的としている。
我々は,対象ラベルを画像レベルではなくオブジェクトレベルから扱う,新たな攻撃パラダイムであるemphfine-fine-grained attackを提案する。
実験により、提案手法はわずかなトレーニングデータだけを毒殺することでセマンティックセグメンテーションモデルを攻撃することに成功した。
論文 参考訳(メタデータ) (2021-03-06T05:50:29Z) - Backdoor Attacks Against Deep Learning Systems in the Physical World [23.14528973663843]
実世界の様々な条件下での物理的バックドア攻撃の実現可能性について検討した。
物理的なオブジェクトが課す制約を克服するように慎重に設定されている場合、物理的なバックドア攻撃は高い成功を収める。
今日の(デジタル)バックドアに対する最先端の防御のうち4つは、物理的なバックドアに対して効果がない。
論文 参考訳(メタデータ) (2020-06-25T17:26:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。