論文の概要: Backdoor Poisoning Attack Against Face Spoofing Attack Detection Methods
- arxiv url: http://arxiv.org/abs/2509.03108v1
- Date: Wed, 03 Sep 2025 08:05:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.452555
- Title: Backdoor Poisoning Attack Against Face Spoofing Attack Detection Methods
- Title(参考訳): 顔認識攻撃検出法に対するバックドア毒殺攻撃
- Authors: Shota Iwamatsu, Koichi Ito, Takafumi Aoki,
- Abstract要約: 顔認識システムは、偽造攻撃などのユーザーの顔写真を使用した不正な認証の試みに対して脆弱である。
このような偽造攻撃を防止するため、入力画像がライブユーザ画像か偽造画像かを識別することが重要である。
そこで本研究では,顔検出におけるバックドア毒の潜伏的脅威を示す新しいバックドア中毒攻撃法を提案する。
- 参考スコア(独自算出の注目度): 1.529342790344802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face recognition systems are robust against environmental changes and noise, and thus may be vulnerable to illegal authentication attempts using user face photos, such as spoofing attacks. To prevent such spoofing attacks, it is crucial to discriminate whether the input image is a live user image or a spoofed image prior to the face recognition process. Most existing spoofing attack detection methods utilize deep learning, which necessitates a substantial amount of training data. Consequently, if malicious data is injected into a portion of the training dataset, a specific spoofing attack may be erroneously classified as live, leading to false positives.In this paper, we propose a novel backdoor poisoning attack method to demonstrate the latent threat of backdoor poisoning within face anti-spoofing detection. The proposed method enables certain spoofing attacks to bypass detection by embedding features extracted from the spoofing attack's face image into a live face image without inducing any perceptible visual alterations.Through experiments conducted on public datasets, we demonstrate that the proposed method constitutes a realistic threat to existing spoofing attack detection systems.
- Abstract(参考訳): 顔認識システムは、環境変化やノイズに対して堅牢であり、スプーフィング攻撃のようなユーザー・フェイス・写真を用いた違法な認証の試みに弱い可能性がある。
このような偽造攻撃を防止するため、顔認識プロセスの前に入力画像がライブユーザ画像か偽造画像かを識別することが重要である。
既存のスプーフィング攻撃検出手法の多くは、大量のトレーニングデータを必要とするディープラーニングを利用している。
その結果、悪意のあるデータがトレーニングデータセットの一部に注入された場合、特定のスプーフィング攻撃は誤ってライブと分類され、偽陽性につながる可能性があるため、顔の反スプーフィング検出においてバックドア中毒の潜在的脅威を示す新しいバックドア中毒攻撃法を提案する。
提案手法は,スプーフィング攻撃の顔画像から抽出した特徴を知覚可能な視覚的変化を誘発することなく生顔画像に埋め込むことにより,検出を回避し,特定のスプーフィング攻撃を可能にする。
関連論文リスト
- Leveraging Intermediate Features of Vision Transformer for Face Anti-Spoofing [0.11184789007828977]
本研究では,視覚変換器(ViT)を用いたスプーフィング攻撃検出手法を提案する。
また,フェース・アンチ・スフィング・データ拡張法とパッチ・ワイド・データ拡張法という2つのデータ拡張法を提案する。
提案手法の有効性を,OULU-NPUとSiWを用いた実験により実証した。
論文 参考訳(メタデータ) (2025-05-30T09:33:01Z) - Principles of Designing Robust Remote Face Anti-Spoofing Systems [60.05766968805833]
本稿では,デジタル攻撃に対する最先端の対面防止手法の脆弱性に光を当てる。
反偽造システムに遭遇する一般的な脅威を包括的に分類する。
論文 参考訳(メタデータ) (2024-06-06T02:05:35Z) - Poisoned Forgery Face: Towards Backdoor Attacks on Face Forgery
Detection [62.595450266262645]
本稿では,バックドア攻撃による顔偽造検出の新たな脅威について紹介する。
バックドアをモデルに埋め込むことで、攻撃者は検知器を騙して偽造された顔の誤予測を発生させることができる。
我々は,顔偽造検知器に対するクリーンラベルバックドア攻撃を可能にするemphPoisoned Forgery Faceフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-18T06:31:05Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Information-containing Adversarial Perturbation for Combating Facial
Manipulation Systems [19.259372985094235]
ディープラーニングシステムの悪意ある応用は個人のプライバシーと評判に深刻な脅威をもたらす。
IAP(Information- containing Adversarial Perturbation)と呼ばれる新しい2層保護手法を提案する。
エンコーダを用いて、顔画像とその識別メッセージを、複数の顔操作システムを妨害できるクロスモデル対向例にマッピングする。
論文 参考訳(メタデータ) (2023-03-21T06:48:14Z) - Restricted Black-box Adversarial Attack Against DeepFake Face Swapping [70.82017781235535]
本稿では,顔画像偽造モデルに対する問い合わせを一切必要としない現実的な敵攻撃を提案する。
本手法は,顔の再構成を行う代用モデルに基づいて構築され,置換モデルから非アクセス可能なブラックボックスDeepFakeモデルへの逆例を直接転送する。
論文 参考訳(メタデータ) (2022-04-26T14:36:06Z) - An Ensemble Model for Face Liveness Detection [2.322052136673525]
本研究では,アンサンブル深層学習技術を用いて顔提示攻撃を検出する受動的手法を提案する。
本研究では,顔領域と背景領域の複数の特徴を学習し,ユーザがボナフィドか攻撃者かを予測するアンサンブル手法を提案する。
論文 参考訳(メタデータ) (2022-01-19T12:43:39Z) - Perception Matters: Exploring Imperceptible and Transferable
Anti-forensics for GAN-generated Fake Face Imagery Detection [28.620523463372177]
GAN(Generative Adversarial Network)は、実際の顔写真と知覚的に区別できない、写真リアルな偽の顔画像を生成することができる。
ここでは、敵対的攻撃に基づく偽顔画像検出のための、よりテクスチアンペアブルでテクスティットトランスファーブルなアンチフォレンジックを探索する。
本稿では,視覚的知覚を考慮し,色領域が変化した場合に,画像の反法医学に適する新たな対角攻撃法を提案する。
論文 参考訳(メタデータ) (2020-10-29T18:54:06Z) - Face Anti-Spoofing by Learning Polarization Cues in a Real-World
Scenario [50.36920272392624]
顔の偽造は生体認証アプリケーションにおけるセキュリティ侵害を防ぐ鍵となる。
RGBと赤外線画像を用いたディープラーニング手法は,新たな攻撃に対する大量のトレーニングデータを必要とする。
本研究では,実顔の偏光画像の物理的特徴を自動的に学習することにより,現実のシナリオにおける顔のアンチ・スプーフィング手法を提案する。
論文 参考訳(メタデータ) (2020-03-18T03:04:03Z) - Towards Face Encryption by Generating Adversarial Identity Masks [53.82211571716117]
敵の識別マスクを生成するためのターゲットID保護反復法(TIP-IM)を提案する。
TIP-IMは、様々な最先端の顔認識モデルに対して95%以上の保護成功率を提供する。
論文 参考訳(メタデータ) (2020-03-15T12:45:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。