論文の概要: Survivability of Backdoor Attacks on Unconstrained Face Recognition Systems
- arxiv url: http://arxiv.org/abs/2507.01607v1
- Date: Wed, 02 Jul 2025 11:21:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.169893
- Title: Survivability of Backdoor Attacks on Unconstrained Face Recognition Systems
- Title(参考訳): 制約のない顔認識システムにおけるバックドアアタックの生存可能性
- Authors: Quentin Le Roux, Yannick Teglia, Teddy Furon, Philippe Loubet-Moundi, Eric Bourbao,
- Abstract要約: 本稿では,ディープラーニングに基づく顔認識システムにおけるバックドアのシステムレベルでの最初の研究を行う。
顔検出タスクに対する2つのバックドア攻撃を初めて実演する。
次に、20の可能なパイプライン構成と15のアタックケースを使用して、単一のバックドアによって攻撃者がシステム全体の機能をバイパスできることを示す。
- 参考スコア(独自算出の注目度): 8.295218740493878
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The widespread use of deep learning face recognition raises several security concerns. Although prior works point at existing vulnerabilities, DNN backdoor attacks against real-life, unconstrained systems dealing with images captured in the wild remain a blind spot of the literature. This paper conducts the first system-level study of backdoors in deep learning-based face recognition systems. This paper yields four contributions by exploring the feasibility of DNN backdoors on these pipelines in a holistic fashion. We demonstrate for the first time two backdoor attacks on the face detection task: face generation and face landmark shift attacks. We then show that face feature extractors trained with large margin losses also fall victim to backdoor attacks. Combining our models, we then show using 20 possible pipeline configurations and 15 attack cases that a single backdoor enables an attacker to bypass the entire function of a system. Finally, we provide stakeholders with several best practices and countermeasures.
- Abstract(参考訳): ディープラーニングの顔認識の普及は、いくつかのセキュリティ上の懸念を引き起こす。
以前の研究では、既存の脆弱性が指摘されていたが、DNNのバックドア攻撃は、野生で撮影された画像を扱う、現実の制約のないシステムに対するものであり、文献の盲点として残されている。
本稿では,ディープラーニングに基づく顔認識システムにおけるバックドアのシステムレベルでの最初の研究を行う。
本論文は,これらのパイプライン上でのDNNバックドアの実現可能性について,総合的に検討することによって,4つのコントリビューションを提供する。
顔検出タスクに対する2つのバックドアアタック(顔生成と顔ランドマークシフトアタック)を初めて実証した。
次に,顔の特徴抽出器が大きなマージン損失で訓練された場合,バックドア攻撃の被害を受けることも示している。
モデルを組み合わせることで、20の可能なパイプライン構成と15のアタックケースを使用して、1つのバックドアで攻撃者がシステム全体の機能をバイパスできることを示す。
最後に、ステークホルダーにいくつかのベストプラクティスと対策を提供します。
関連論文リスト
- MakeupAttack: Feature Space Black-box Backdoor Attack on Face Recognition via Makeup Transfer [6.6251662169603005]
メイクアップアタック(MakeupAttack)と呼ばれるメイクアップトランスファーによる顔認証に対するバックドア攻撃を提案する。
本攻撃では,提案したメイクスタイルトリガーの微妙な特徴を学習するための反復訓練パラダイムを設計する。
提案手法は, モデル性能を損なうことなく, 有効性, 堅牢性, 自然性, ステルス性を保ちながら, 既存の防御を回避できることを示す。
論文 参考訳(メタデータ) (2024-08-22T11:39:36Z) - Poisoned Forgery Face: Towards Backdoor Attacks on Face Forgery
Detection [62.595450266262645]
本稿では,バックドア攻撃による顔偽造検出の新たな脅威について紹介する。
バックドアをモデルに埋め込むことで、攻撃者は検知器を騙して偽造された顔の誤予測を発生させることができる。
我々は,顔偽造検知器に対するクリーンラベルバックドア攻撃を可能にするemphPoisoned Forgery Faceフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T06:31:05Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - BATT: Backdoor Attack with Transformation-based Triggers [72.61840273364311]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアの敵は、敵が特定したトリガーパターンによって活性化される隠れたバックドアを注入する。
最近の研究によると、既存の攻撃のほとんどは現実世界で失敗した。
論文 参考訳(メタデータ) (2022-11-02T16:03:43Z) - An anomaly detection approach for backdoored neural networks: face
recognition as a case study [77.92020418343022]
本稿では,異常検出の原理に基づく新しいバックドアネットワーク検出手法を提案する。
バックドアネットワークの新たなデータセット上で本手法を検証し,完全スコアで検出可能性について報告する。
論文 参考訳(メタデータ) (2022-08-22T12:14:13Z) - Check Your Other Door! Establishing Backdoor Attacks in the Frequency
Domain [80.24811082454367]
検出不能で強力なバックドア攻撃を確立するために周波数領域を利用する利点を示す。
また、周波数ベースのバックドア攻撃を成功させる2つの防御方法と、攻撃者がそれらを回避できる可能性を示す。
論文 参考訳(メタデータ) (2021-09-12T12:44:52Z) - Turn the Combination Lock: Learnable Textual Backdoor Attacks via Word
Substitution [57.51117978504175]
最近の研究では、ニューラルネットワーク処理(NLP)モデルがバックドア攻撃に弱いことが示されている。
バックドアを注入すると、モデルは通常、良質な例で実行されるが、バックドアがアクティブになったときに攻撃者が特定した予測を生成する。
単語置換の学習可能な組み合わせによって活性化される見えないバックドアを提示する。
論文 参考訳(メタデータ) (2021-06-11T13:03:17Z) - Light Can Hack Your Face! Black-box Backdoor Attack on Face Recognition
Systems [0.0]
顔認識システムにおけるブラックボックスバックドア攻撃手法を提案する。
バックドアトリガは極めて効果的であり、攻撃成功率は最大で88%である。
本研究は,既存の顔認識/検証技術のセキュリティ問題に注意を喚起する,新たな物理的バックドア攻撃を明らかにしたことを強調した。
論文 参考訳(メタデータ) (2020-09-15T11:50:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。