論文の概要: Liveness Detection in Computer Vision: Transformer-based Self-Supervised Learning for Face Anti-Spoofing
- arxiv url: http://arxiv.org/abs/2406.13860v1
- Date: Wed, 19 Jun 2024 21:44:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-21 18:06:06.796499
- Title: Liveness Detection in Computer Vision: Transformer-based Self-Supervised Learning for Face Anti-Spoofing
- Title(参考訳): コンピュータビジョンにおける生活検出:顔のアンチ・スプーフィングのためのトランスフォーマーによる自己教師付き学習
- Authors: Arman Keresh, Pakizar Shamoi,
- Abstract要約: 顔認識システムは、攻撃者が写真、ビデオ、マスクを使って正当なユーザーを偽装する攻撃に対して脆弱である。
この研究は、DINOフレームワークで微調整されたVision Transformer (ViT)アーキテクチャを探索することで、これらの脆弱性に対処する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face recognition systems are increasingly used in biometric security for convenience and effectiveness. However, they remain vulnerable to spoofing attacks, where attackers use photos, videos, or masks to impersonate legitimate users. This research addresses these vulnerabilities by exploring the Vision Transformer (ViT) architecture, fine-tuned with the DINO framework. The DINO framework facilitates self-supervised learning, enabling the model to learn distinguishing features from unlabeled data. We compared the performance of the proposed fine-tuned ViT model using the DINO framework against a traditional CNN model, EfficientNet b2, on the face anti-spoofing task. Numerous tests on standard datasets show that the ViT model performs better than the CNN model in terms of accuracy and resistance to different spoofing methods. Additionally, we collected our own dataset from a biometric application to validate our findings further. This study highlights the superior performance of transformer-based architecture in identifying complex spoofing cues, leading to significant advancements in biometric security.
- Abstract(参考訳): 顔認識システムは、利便性と有効性のために生体認証のセキュリティにますます利用されている。
しかし、攻撃者は写真やビデオ、マスクを使って正統なユーザーを偽装する攻撃に弱いままだ。
この研究は、DINOフレームワークで微調整されたVision Transformer (ViT)アーキテクチャを探索することで、これらの脆弱性に対処する。
DINOフレームワークは自己教師付き学習を促進し、モデルがラベルのないデータから特徴を区別する学習を可能にする。
我々は,従来のCNNモデルであるEfficientNet b2に対して,DINOフレームワークを用いた微調整ViTモデルの性能を比較した。
標準データセットに対する多数のテストでは、異なるスプーフィング手法に対する精度と耐性の観点から、ViTモデルの方がCNNモデルよりも優れた性能を示している。
さらに、生体計測アプリケーションから独自のデータセットを収集し、その結果をさらに検証しました。
本研究は, 複雑なスプーフィングキューの同定において, トランスフォーマーアーキテクチャの優れた性能を強調し, 生体認証の大幅な進歩につながった。
関連論文リスト
- Combined CNN and ViT features off-the-shelf: Another astounding baseline for recognition [49.14350399025926]
本稿では,ImageNet Large Scale Visual Recognition Challengeのために開発された事前学習型アーキテクチャを,近視認識に適用する。
CNNとViTの中間層の特徴は、近視画像に基づいて個人を認識するのに適した方法である。
論文 参考訳(メタデータ) (2024-07-28T11:52:36Z) - Fiducial Focus Augmentation for Facial Landmark Detection [4.433764381081446]
本稿では,モデルによる顔構造理解を高めるために,新しい画像強調手法を提案する。
我々は,Deep Canonical correlation Analysis (DCCA) に基づく損失を考慮した,シームズアーキテクチャに基づくトレーニング機構を採用している。
提案手法は,様々なベンチマークデータセットにおいて,最先端のアプローチよりも優れている。
論文 参考訳(メタデータ) (2024-02-23T01:34:00Z) - AttackNet: Enhancing Biometric Security via Tailored Convolutional Neural Network Architectures for Liveness Detection [20.821562115822182]
アタックネット(AttackNet)は、生体認証システムにおける偽りの脅威に対処するために設計された、難解な畳み込みニューラルネットワークアーキテクチャである。
低レベルの特徴抽出から高レベルのパターン識別へシームレスに移行する、階層化された防御機構を提供する。
多様なデータセットにまたがってモデルをベンチマークすることは、その長所を証明し、現代のモデルと比較して優れたパフォーマンス指標を示す。
論文 参考訳(メタデータ) (2024-02-06T07:22:50Z) - Embedding Non-Distortive Cancelable Face Template Generation [22.80706131626207]
我々は、目では認識できないが、任意のカスタム埋め込みニューラルネットワークモデルで識別可能な顔画像を実現する革新的な画像歪み技術を導入する。
生体認証ネットワークの信頼性を,予測された同一性を変化させない最大画像歪みを判定することによって検証する。
論文 参考訳(メタデータ) (2024-02-04T15:39:18Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z) - Benchmarking Detection Transfer Learning with Vision Transformers [60.97703494764904]
オブジェクト検出メソッドの複雑さは、ViT(Vision Transformer)モデルのような新しいアーキテクチャが到着するときに、ベンチマークを非簡単にする。
本研究では,これらの課題を克服し,標準的なVTモデルをMask R-CNNのバックボーンとして活用する訓練手法を提案する。
その結果,最近のマスキングに基づく教師なし学習手法は,COCOにおける説得力のあるトランスファー学習改善をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2021-11-22T18:59:15Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - Shuffled Patch-Wise Supervision for Presentation Attack Detection [12.031796234206135]
顔の偽造防止は、写真、ビデオ、マスク、または認証された人の顔の別の代用品を使用することによって、偽の顔認証を防止するために不可欠である。
ほとんどのプレゼンテーションアタック検出システムはオーバーフィッティングに悩まされており、1つのデータセットでほぼ完璧なスコアを得るが、より現実的なデータを持つ別のデータセットでは失敗する。
画素単位のバイナリ管理とパッチベースのCNNを組み合わせた新しいPAD手法を提案する。
論文 参考訳(メタデータ) (2021-09-08T08:14:13Z) - Towards a Safety Case for Hardware Fault Tolerance in Convolutional
Neural Networks Using Activation Range Supervision [1.7968112116887602]
畳み込みニューラルネットワーク(CNN)は多くの安全クリティカルなコンピュータビジョンアプリケーションの一部として確立されている。
我々は,高度に信頼性の高い故障検知器として範囲監視が重要であることを示すことによって,CNNのプロトタイプ型安全ケースを構築した。
本研究では,無声データ破損の確率と訂正不能な誤りを効果的に抑制する,新しい非一様範囲制限法について検討する。
論文 参考訳(メタデータ) (2021-08-16T11:13:55Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z) - Aurora Guard: Reliable Face Anti-Spoofing via Mobile Lighting System [103.5604680001633]
紙写真やデジタルビデオの高解像度レンダリングリプレイに対する反偽造は、未解決の問題だ。
オーロラガード(Aurora Guard, AG)と呼ばれる, シンプルだが効果的な顔保護システムを提案する。
論文 参考訳(メタデータ) (2021-02-01T09:17:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。