論文の概要: From Detection to Correction: Backdoor-Resilient Face Recognition via Vision-Language Trigger Detection and Noise-Based Neutralization
- arxiv url: http://arxiv.org/abs/2508.05409v1
- Date: Thu, 07 Aug 2025 14:02:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-08 18:59:39.893504
- Title: From Detection to Correction: Backdoor-Resilient Face Recognition via Vision-Language Trigger Detection and Noise-Based Neutralization
- Title(参考訳): 検出から補正へ:ビジョン・ランゲージ・トリガー検出と雑音によるニュートラル化によるバックドア・レジリエント顔認識
- Authors: Farah Wahida, M. A. P. Chamikara, Yashothara Shanmugarasa, Mohan Baruwal Chhetri, Thilina Ranbaduge, Ibrahim Khalil,
- Abstract要約: バックドア攻撃はディープニューラルネットワーク(DNN)を利用した顔認識システムを覆す
そこで我々はTrueBiometric: Trustworthy Biometricsを提案する。
実験の結果,TrueBiometricはクリーンな画像の精度を損なうことなく,100%の精度で有毒な画像を検出し,修正することを示した。
- 参考スコア(独自算出の注目度): 2.661968537236039
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Biometric systems, such as face recognition systems powered by deep neural networks (DNNs), rely on large and highly sensitive datasets. Backdoor attacks can subvert these systems by manipulating the training process. By inserting a small trigger, such as a sticker, make-up, or patterned mask, into a few training images, an adversary can later present the same trigger during authentication to be falsely recognized as another individual, thereby gaining unauthorized access. Existing defense mechanisms against backdoor attacks still face challenges in precisely identifying and mitigating poisoned images without compromising data utility, which undermines the overall reliability of the system. We propose a novel and generalizable approach, TrueBiometric: Trustworthy Biometrics, which accurately detects poisoned images using a majority voting mechanism leveraging multiple state-of-the-art large vision language models. Once identified, poisoned samples are corrected using targeted and calibrated corrective noise. Our extensive empirical results demonstrate that TrueBiometric detects and corrects poisoned images with 100\% accuracy without compromising accuracy on clean images. Compared to existing state-of-the-art approaches, TrueBiometric offers a more practical, accurate, and effective solution for mitigating backdoor attacks in face recognition systems.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)を利用した顔認識システムのような生体認証システムは、大きくて高感度なデータセットに依存している。
バックドアアタックはトレーニングプロセスを操作することでこれらのシステムを覆すことができる。
ステッカー、メイクアップ、パターンマスクなどの小さなトリガーをいくつかのトレーニングイメージに挿入することで、認証中に同じトリガーを提示して別の個人として誤認識することで、不正アクセスを得ることができる。
既存のバックドア攻撃に対する防御機構は、データユーティリティを損なうことなく、毒性のある画像を正確に識別し緩和するという課題に直面しており、システム全体の信頼性を損なう。
我々は,複数の最先端の大規模視覚言語モデルを活用する多数決機構を用いて,有毒画像の正確な検出を行う,新しい一般化可能なアプローチであるTrueBiometric: Trustworthy Biometricsを提案する。
特定されると、汚染されたサンプルはターゲットと校正された修正ノイズを使って修正される。
実験の結果,TrueBiometricはクリーンな画像の精度を損なうことなく,100\%の精度で有毒な画像を検出し,修正することを示した。
既存の最先端のアプローチと比較して、TrueBiometricは顔認識システムにおけるバックドア攻撃を緩和するための、より実用的で正確で効果的なソリューションを提供する。
関連論文リスト
- Time-Aware Face Anti-Spoofing with Rotation Invariant Local Binary Patterns and Deep Learning [50.79277723970418]
模倣攻撃は 不正な識別と その後の攻撃者の認証につながる
顔認識と同様に、模倣攻撃も機械学習で検出できる。
本稿では,未使用の機能と時間認識の深層学習戦略を組み合わせることで,高い分類精度を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T07:26:10Z) - Embedding Non-Distortive Cancelable Face Template Generation [22.80706131626207]
我々は、目では認識できないが、任意のカスタム埋め込みニューラルネットワークモデルで識別可能な顔画像を実現する革新的な画像歪み技術を導入する。
生体認証ネットワークの信頼性を,予測された同一性を変化させない最大画像歪みを判定することによって検証する。
論文 参考訳(メタデータ) (2024-02-04T15:39:18Z) - Unrecognizable Yet Identifiable: Image Distortion with Preserved Embeddings [22.338328674283062]
本稿では,ニューラルネットワークモデルによる顔画像の識別性を保ちながら,目に対して認識不能な顔画像を描画する,革新的な画像変換手法を提案する。
提案手法は、様々な人工知能アプリケーションにおいて、視覚データを歪曲し、派生した特徴を近接に保つために使用することができる。
同一の認識精度を維持しつつ、画像内容が70%以上変化する歪みを構築することができることを示す。
論文 参考訳(メタデータ) (2024-01-26T18:20:53Z) - TetraLoss: Improving the Robustness of Face Recognition against Morphing Attacks [6.492755549391469]
顔認識システムは、高セキュリティアプリケーションに広くデプロイされている。
フェースモーフィングのようなデジタル操作は、顔認識システムにセキュリティ上の脅威をもたらす。
本稿では,ディープラーニングに基づく顔認識システムを,顔形態攻撃に対してより堅牢なものにするための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-21T21:04:05Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - MMNet: Multi-Collaboration and Multi-Supervision Network for Sequential
Deepfake Detection [81.59191603867586]
シークエンシャルディープフェイク検出は、回復のための正しいシーケンスで偽の顔領域を特定することを目的としている。
偽画像の復元には、逆変換を実装するための操作モデルの知識が必要である。
顔画像の空間スケールや逐次順列化を扱うマルチコラボレーション・マルチスーパービジョンネットワーク(MMNet)を提案する。
論文 参考訳(メタデータ) (2023-07-06T02:32:08Z) - Information-containing Adversarial Perturbation for Combating Facial
Manipulation Systems [19.259372985094235]
ディープラーニングシステムの悪意ある応用は個人のプライバシーと評判に深刻な脅威をもたらす。
IAP(Information- containing Adversarial Perturbation)と呼ばれる新しい2層保護手法を提案する。
エンコーダを用いて、顔画像とその識別メッセージを、複数の顔操作システムを妨害できるクロスモデル対向例にマッピングする。
論文 参考訳(メタデータ) (2023-03-21T06:48:14Z) - Resurrecting Trust in Facial Recognition: Mitigating Backdoor Attacks in
Face Recognition to Prevent Potential Privacy Breaches [7.436067208838344]
深層学習は顔認識(FR)に広く利用されている
しかし、そのようなモデルは悪意のある当事者によって実行されるバックドア攻撃に対して脆弱である。
BA-BAM: Biometric Authentication - Backdoor Attack Mitigationを提案する。
論文 参考訳(メタデータ) (2022-02-18T13:53:55Z) - Harnessing Unrecognizable Faces for Face Recognition [87.80037162457427]
本稿では,顔画像の認識可能性の尺度を提案し,主に認識可能なアイデンティティを用いて訓練されたディープニューラルネットワークによって実現された。
FAR=1e-5において,認識可能性を考慮した場合,単画像認識の誤り率を58%減少させることを示す。
論文 参考訳(メタデータ) (2021-06-08T05:25:03Z) - Aurora Guard: Reliable Face Anti-Spoofing via Mobile Lighting System [103.5604680001633]
紙写真やデジタルビデオの高解像度レンダリングリプレイに対する反偽造は、未解決の問題だ。
オーロラガード(Aurora Guard, AG)と呼ばれる, シンプルだが効果的な顔保護システムを提案する。
論文 参考訳(メタデータ) (2021-02-01T09:17:18Z) - Face Anti-Spoofing by Learning Polarization Cues in a Real-World
Scenario [50.36920272392624]
顔の偽造は生体認証アプリケーションにおけるセキュリティ侵害を防ぐ鍵となる。
RGBと赤外線画像を用いたディープラーニング手法は,新たな攻撃に対する大量のトレーニングデータを必要とする。
本研究では,実顔の偏光画像の物理的特徴を自動的に学習することにより,現実のシナリオにおける顔のアンチ・スプーフィング手法を提案する。
論文 参考訳(メタデータ) (2020-03-18T03:04:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。