論文の概要: MakeupAttack: Feature Space Black-box Backdoor Attack on Face Recognition via Makeup Transfer
- arxiv url: http://arxiv.org/abs/2408.12312v1
- Date: Thu, 22 Aug 2024 11:39:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-23 14:13:32.010453
- Title: MakeupAttack: Feature Space Black-box Backdoor Attack on Face Recognition via Makeup Transfer
- Title(参考訳): MakeupAttack: メイクアップ転送による顔認識におけるフィーチャースペースブラックボックスバックドア攻撃
- Authors: Ming Sun, Lihua Jing, Zixuan Zhu, Rui Wang,
- Abstract要約: メイクアップアタック(MakeupAttack)と呼ばれるメイクアップトランスファーによる顔認証に対するバックドア攻撃を提案する。
本攻撃では,提案したメイクスタイルトリガーの微妙な特徴を学習するための反復訓練パラダイムを設計する。
提案手法は, モデル性能を損なうことなく, 有効性, 堅牢性, 自然性, ステルス性を保ちながら, 既存の防御を回避できることを示す。
- 参考スコア(独自算出の注目度): 6.6251662169603005
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Backdoor attacks pose a significant threat to the training process of deep neural networks (DNNs). As a widely-used DNN-based application in real-world scenarios, face recognition systems once implanted into the backdoor, may cause serious consequences. Backdoor research on face recognition is still in its early stages, and the existing backdoor triggers are relatively simple and visible. Furthermore, due to the perceptibility, diversity, and similarity of facial datasets, many state-of-the-art backdoor attacks lose effectiveness on face recognition tasks. In this work, we propose a novel feature space backdoor attack against face recognition via makeup transfer, dubbed MakeupAttack. In contrast to many feature space attacks that demand full access to target models, our method only requires model queries, adhering to black-box attack principles. In our attack, we design an iterative training paradigm to learn the subtle features of the proposed makeup-style trigger. Additionally, MakeupAttack promotes trigger diversity using the adaptive selection method, dispersing the feature distribution of malicious samples to bypass existing defense methods. Extensive experiments were conducted on two widely-used facial datasets targeting multiple models. The results demonstrate that our proposed attack method can bypass existing state-of-the-art defenses while maintaining effectiveness, robustness, naturalness, and stealthiness, without compromising model performance.
- Abstract(参考訳): バックドア攻撃はディープニューラルネットワーク(DNN)のトレーニングプロセスに重大な脅威をもたらす。
現実世界のシナリオで広く使われているDNNベースのアプリケーションとして、一度バックドアに埋め込まれた顔認識システムは深刻な結果をもたらす可能性がある。
顔認識に関するバックドアの研究はまだ初期段階にあり、既存のバックドアトリガーは比較的シンプルで目に見える。
さらに、顔データセットの認識可能性、多様性、類似性により、多くの最先端のバックドア攻撃は顔認識タスクにおいて効果を失う。
本研究では,メイクアップアタック(MakeupAttack)と呼ばれるメイクアップトランスファーによる顔認証に対する空間バックドア攻撃を提案する。
ターゲットモデルへの完全なアクセスを要求する多くの機能空間攻撃とは対照的に、我々の手法はブラックボックス攻撃の原則に固執するモデルクエリのみを必要とする。
本攻撃では,提案したメイクスタイルトリガーの微妙な特徴を学習するための反復訓練パラダイムを設計する。
さらに、MakeupAttackはアダプティブセレクションメソッドを使用してトリガの多様性を促進し、悪意のあるサンプルの特徴分布を分散させ、既存の防御メソッドをバイパスする。
複数のモデルをターゲットにした2つの広く使われている顔データセットに対して大規模な実験を行った。
提案手法は, モデル性能を損なうことなく, 有効性, 堅牢性, 自然性, ステルス性を保ちながら, 既存の防御を回避できることを示す。
関連論文リスト
- Poisoned Forgery Face: Towards Backdoor Attacks on Face Forgery
Detection [62.595450266262645]
本稿では,バックドア攻撃による顔偽造検出の新たな脅威について紹介する。
バックドアをモデルに埋め込むことで、攻撃者は検知器を騙して偽造された顔の誤予測を発生させることができる。
我々は,顔偽造検知器に対するクリーンラベルバックドア攻撃を可能にするemphPoisoned Forgery Faceフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T06:31:05Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Light Can Hack Your Face! Black-box Backdoor Attack on Face Recognition
Systems [0.0]
顔認識システムにおけるブラックボックスバックドア攻撃手法を提案する。
バックドアトリガは極めて効果的であり、攻撃成功率は最大で88%である。
本研究は,既存の顔認識/検証技術のセキュリティ問題に注意を喚起する,新たな物理的バックドア攻撃を明らかにしたことを強調した。
論文 参考訳(メタデータ) (2020-09-15T11:50:29Z) - FaceHack: Triggering backdoored facial recognition systems using facial
characteristics [16.941198804770607]
機械学習の最近の進歩は、現実世界のアプリケーションに広く使われるための新しい道を開いた。
近年の研究では、顔認識システムで一般的に使用されるディープニューラルネットワーク(DNN)が、バックドア攻撃の影響を受けやすいことが示されている。
本研究は,MLモデルにおいて,顔の特徴の特定の変化が悪意ある行動を引き起こすことを実証するものである。
論文 参考訳(メタデータ) (2020-06-20T17:39:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。