論文の概要: Unified Face Matching and Physical-Digital Spoofing Attack Detection
- arxiv url: http://arxiv.org/abs/2501.09635v1
- Date: Thu, 16 Jan 2025 16:24:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-17 15:10:04.992061
- Title: Unified Face Matching and Physical-Digital Spoofing Attack Detection
- Title(参考訳): 統一顔マッチングと物理的デジタルスポフィング攻撃検出
- Authors: Arun Kunwar, Ajita Rattani,
- Abstract要約: 顔認識システムは、物理的およびデジタル偽造攻撃による脅威の増加に直面している。
本稿では,身体的およびデジタル的攻撃の顔認識と検出を目的とした,革新的な統一モデルを提案する。
畳み込みニューラルネットワークフレームワークにおいて、高度なSwin TransformerのバックボーンとHiLoの注意を活用することにより、統合された顔認識とスプーフ攻撃検出をより効果的に処理する。
- 参考スコア(独自算出の注目度): 3.9440964696313485
- License:
- Abstract: Face recognition technology has dramatically transformed the landscape of security, surveillance, and authentication systems, offering a user-friendly and non-invasive biometric solution. However, despite its significant advantages, face recognition systems face increasing threats from physical and digital spoofing attacks. Current research typically treats face recognition and attack detection as distinct classification challenges. This approach necessitates the implementation of separate models for each task, leading to considerable computational complexity, particularly on devices with limited resources. Such inefficiencies can stifle scalability and hinder performance. In response to these challenges, this paper introduces an innovative unified model designed for face recognition and detection of physical and digital attacks. By leveraging the advanced Swin Transformer backbone and incorporating HiLo attention in a convolutional neural network framework, we address unified face recognition and spoof attack detection more effectively. Moreover, we introduce augmentation techniques that replicate the traits of physical and digital spoofing cues, significantly enhancing our model robustness. Through comprehensive experimental evaluation across various datasets, we showcase the effectiveness of our model in unified face recognition and spoof detection. Additionally, we confirm its resilience against unseen physical and digital spoofing attacks, underscoring its potential for real-world applications.
- Abstract(参考訳): 顔認識技術は、セキュリティ、監視、認証システムの状況を大きく変え、ユーザーフレンドリーで非侵襲的な生体認証ソリューションを提供する。
しかし、その大きな利点にもかかわらず、顔認識システムは物理的およびデジタル偽造攻撃による脅威の増加に直面している。
現在の研究では、顔の認識と攻撃検出を異なる分類課題として扱うのが一般的である。
このアプローチでは、各タスクごとに別々のモデルを実装する必要があるため、特に限られたリソースを持つデバイスにおいて、相当な計算複雑性が生じる。
このような非効率さはスケーラビリティを弱め、パフォーマンスを妨げます。
これらの課題に対応するために,本研究では,顔の認識と身体的およびデジタル的攻撃の検出を目的とした,革新的な統一モデルを提案する。
高度なSwin Transformerのバックボーンを活用し、HiLo注意を畳み込みニューラルネットワークフレームワークに組み込むことで、統合された顔認識とスプーフ攻撃検出をより効果的に処理する。
さらに,物理的およびデジタルスプーフィングキューの特性を再現する拡張技術を導入し,モデルロバスト性を大幅に向上させる。
各種データセットの総合的な実験評価を通じて,統合顔認識とスプーフ検出におけるモデルの有効性を示す。
さらに、未確認の物理的およびデジタルスプーフ攻撃に対するレジリエンスを確認し、現実世界の応用の可能性を強調します。
関連論文リスト
- Time-Aware Face Anti-Spoofing with Rotation Invariant Local Binary Patterns and Deep Learning [50.79277723970418]
模倣攻撃は 不正な識別と その後の攻撃者の認証につながる
顔認識と同様に、模倣攻撃も機械学習で検出できる。
本稿では,未使用の機能と時間認識の深層学習戦略を組み合わせることで,高い分類精度を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T07:26:10Z) - Principles of Designing Robust Remote Face Anti-Spoofing Systems [60.05766968805833]
本稿では,デジタル攻撃に対する最先端の対面防止手法の脆弱性に光を当てる。
反偽造システムに遭遇する一般的な脅威を包括的に分類する。
論文 参考訳(メタデータ) (2024-06-06T02:05:35Z) - Quadruplet Loss For Improving the Robustness to Face Morphing Attacks [0.0]
顔認識システムは高度な攻撃に弱い。
本研究では, 顔認証システムのフォーミング攻撃に対するロバスト性を高めるために, 新たな四重項損失関数を導入する。
論文 参考訳(メタデータ) (2024-02-22T16:10:39Z) - TetraLoss: Improving the Robustness of Face Recognition against Morphing Attacks [6.492755549391469]
顔認識システムは、高セキュリティアプリケーションに広くデプロイされている。
フェースモーフィングのようなデジタル操作は、顔認識システムにセキュリティ上の脅威をもたらす。
本稿では,ディープラーニングに基づく顔認識システムを,顔形態攻撃に対してより堅牢なものにするための新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-21T21:04:05Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - Controllable Evaluation and Generation of Physical Adversarial Patch on
Face Recognition [49.42127182149948]
近年の研究では、顔認証モデルの物理的敵パッチに対する脆弱性が明らかにされている。
本稿では3次元顔モデルを用いて物理世界の顔の複雑な変形をシミュレートする。
さらに、3次元顔変換と現実的な物理的変動を考慮したFace3DAdv法を提案する。
論文 参考訳(メタデータ) (2022-03-09T10:21:40Z) - Robust Physical-World Attacks on Face Recognition [52.403564953848544]
ディープニューラルネットワーク(DNN)の開発によって顔認識が大幅に促進された
近年の研究では、DNNは敵対的な事例に対して非常に脆弱であることが示されており、現実世界の顔認識の安全性に対する深刻な懸念が提起されている。
ステッカーによる顔認識の物理的攻撃について検討し、その対向的堅牢性をよりよく理解する。
論文 参考訳(メタデータ) (2021-09-20T06:49:52Z) - On the Robustness of Face Recognition Algorithms Against Attacks and
Bias [78.68458616687634]
顔認識アルゴリズムは非常に高い認識性能を示しており、現実のアプリケーションに適していることを示唆している。
精度が向上したにもかかわらず、これらのアルゴリズムの攻撃や偏見に対する堅牢性は問題視されている。
本稿では,顔認識アルゴリズムの頑健性に挑戦する様々な方法について要約する。
論文 参考訳(メタデータ) (2020-02-07T18:21:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。