論文の概要: Paired-Sampling Contrastive Framework for Joint Physical-Digital Face Attack Detection
- arxiv url: http://arxiv.org/abs/2508.14980v1
- Date: Wed, 20 Aug 2025 18:05:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-22 16:26:46.057743
- Title: Paired-Sampling Contrastive Framework for Joint Physical-Digital Face Attack Detection
- Title(参考訳): 対訳 対訳 対訳 対訳 対 対 対 対 対 対 対 対 対 対 対 対 対 対 対 対 対 対 対 対 対 対 対 対 対 対 対 対
- Authors: Andrei Balykin, Anvar Ganiev, Denis Kondranin, Kirill Polevoda, Nikolai Liudkevich, Artem Petrov,
- Abstract要約: 本物の自撮りと攻撃的な自撮りのペアは、モダリティに依存しない生き方を学ぶためにマッチする。
フレームワークは軽量(4.46 GFLOPs)で1時間以内の訓練が可能で、実際の配備に実用的である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Modern face recognition systems remain vulnerable to spoofing attempts, including both physical presentation attacks and digital forgeries. Traditionally, these two attack vectors have been handled by separate models, each targeting its own artifacts and modalities. However, maintaining distinct detectors increases system complexity and inference latency and leaves systems exposed to combined attack vectors. We propose the Paired-Sampling Contrastive Framework, a unified training approach that leverages automatically matched pairs of genuine and attack selfies to learn modality-agnostic liveness cues. Evaluated on the 6th Face Anti-Spoofing Challenge Unified Physical-Digital Attack Detection benchmark, our method achieves an average classification error rate (ACER) of 2.10 percent, outperforming prior solutions. The framework is lightweight (4.46 GFLOPs) and trains in under one hour, making it practical for real-world deployment. Code and pretrained models are available at https://github.com/xPONYx/iccv2025_deepfake_challenge.
- Abstract(参考訳): 現代の顔認識システムは、物理的なプレゼンテーション攻撃とデジタル偽造の両方を含む偽造の試みに弱いままである。
伝統的に、これらの2つの攻撃ベクトルは別個のモデルによって処理され、それぞれが独自のアーチファクトとモダリティをターゲットにしている。
しかし、異なる検知器を維持することで、システムの複雑さと推論の遅延が増加し、システムは複合攻撃ベクトルに晒される。
Paired-Sampling Contrastive Framework(ペアリング・コントラシティブ・フレームワーク)を提案する。
The 6th Face Anti-Spoofing Challenge Unified Physical-Digital Detection benchmark, our method achieve a average classification error rate (ACER) of 2.10%。
フレームワークは軽量(4.46 GFLOPs)で1時間以内の訓練が可能で、実際の配備に実用的である。
コードと事前訓練されたモデルはhttps://github.com/xPONYx/iccv2025_deepfake_challenge.comで入手できる。
関連論文リスト
- Time-Aware Face Anti-Spoofing with Rotation Invariant Local Binary Patterns and Deep Learning [50.79277723970418]
模倣攻撃は 不正な識別と その後の攻撃者の認証につながる
顔認識と同様に、模倣攻撃も機械学習で検出できる。
本稿では,未使用の機能と時間認識の深層学習戦略を組み合わせることで,高い分類精度を実現する新しい手法を提案する。
論文 参考訳(メタデータ) (2024-08-27T07:26:10Z) - Hyp-OC: Hyperbolic One Class Classification for Face Anti-Spoofing [30.6907043124415]
顔認識システムは偽造攻撃に対して脆弱であり、容易に回避できる。
フェース・アンチ・スプーフィング (FAS) の最も古い研究は、これを二段階の分類タスクとしてアプローチした。
本研究では,一級視点から顔の偽造防止タスクを再構築し,新しい双曲型一級分類フレームワークを提案する。
論文 参考訳(メタデータ) (2024-04-22T17:59:18Z) - Joint Physical-Digital Facial Attack Detection Via Simulating Spoofing Clues [17.132170955620047]
本研究では,単一モデル内での物理的攻撃とデジタル攻撃を共同で検出する革新的な手法を提案する。
提案手法は主に,SPSC(Simulated Physical Spoofing Clues Augmentation)とSDSC(Simulated Digital Spoofing Clues Augmentation)という2種類のデータ拡張を含む。
The 5th Face Anti-Spoofing Challenge@CVPR2024の"Unified Physical-Digital Face Detection"で優勝した。
論文 参考訳(メタデータ) (2024-04-12T13:01:22Z) - Meta Invariance Defense Towards Generalizable Robustness to Unknown Adversarial Attacks [62.036798488144306]
現在の防衛は主に既知の攻撃に焦点を当てているが、未知の攻撃に対する敵意の強固さは見過ごされている。
メタ不変防衛(Meta Invariance Defense, MID)と呼ばれる攻撃非依存の防御手法を提案する。
MIDは高レベルの画像分類と低レベルの頑健な画像再生における攻撃抑制において,知覚不能な逆方向の摂動に対して同時に頑健性を実現する。
論文 参考訳(メタデータ) (2024-04-04T10:10:38Z) - FACTUAL: A Novel Framework for Contrastive Learning Based Robust SAR Image Classification [10.911464455072391]
FACTUALは、逆行訓練と堅牢なSAR分類のためのコントラストラーニングフレームワークである。
本モデルでは, 洗浄試料の99.7%, 摂動試料の89.6%の精度が得られた。
論文 参考訳(メタデータ) (2024-04-04T06:20:22Z) - Unified Physical-Digital Face Attack Detection [66.14645299430157]
顔認識(FR)システムは物理的(印刷写真)とデジタル(ディープフェイク)攻撃に悩まされることがある。
以前の関連する作業では、両方の状況が同時に考慮されることはめったにありません。
視覚言語モデル(VLM)に基づく一元攻撃検出フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-31T09:38:44Z) - Detecting Adversarial Faces Using Only Real Face Self-Perturbations [36.26178169550577]
アドリアックは、入力サンプルに特定のノイズを加えることで、ターゲットシステムの機能を妨害することを目的としている。
既存の防御技術は、特定の対向顔(adv-faces)の検出において高い精度を達成する
全く異なるノイズパターンを持つ新しい攻撃方法、特にGANベースの攻撃は、それらを回避し、より高い攻撃成功率に達する。
論文 参考訳(メタデータ) (2023-04-22T09:55:48Z) - Towards A Conceptually Simple Defensive Approach for Few-shot
classifiers Against Adversarial Support Samples [107.38834819682315]
本研究は,数発の分類器を敵攻撃から守るための概念的簡便なアプローチについて検討する。
本稿では,自己相似性とフィルタリングの概念を用いた簡易な攻撃非依存検出法を提案する。
ミニイメージネット(MI)とCUBデータセットの攻撃検出性能は良好である。
論文 参考訳(メタデータ) (2021-10-24T05:46:03Z) - Adaptive Feature Alignment for Adversarial Training [56.17654691470554]
CNNは通常、敵攻撃に対して脆弱であり、セキュリティに敏感なアプリケーションに脅威をもたらす。
任意の攻撃強度の特徴を生成するための適応的特徴アライメント(AFA)を提案する。
本手法は任意の攻撃強度の特徴を自動的に整列するように訓練されている。
論文 参考訳(メタデータ) (2021-05-31T17:01:05Z) - Anomaly Detection-Based Unknown Face Presentation Attack Detection [74.4918294453537]
異常検出に基づくスプーフ攻撃検出は、顔提示攻撃検出の最近の進歩である。
本稿では,異常検出に基づくスプーフ攻撃検出のためのディープラーニングソリューションを提案する。
提案手法はCNNの表現学習能力の恩恵を受け,fPADタスクの優れた特徴を学習する。
論文 参考訳(メタデータ) (2020-07-11T21:20:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。