論文の概要: Face Spoofing Detection using Deep Learning
- arxiv url: http://arxiv.org/abs/2503.19223v1
- Date: Tue, 25 Mar 2025 00:09:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-26 16:51:51.871673
- Title: Face Spoofing Detection using Deep Learning
- Title(参考訳): 深層学習を用いた顔検出
- Authors: Najeebullah, Maaz Salman, Zar Nawab Khan Swati,
- Abstract要約: デジタル画像の偽造は生体認証システムにおいて重大なセキュリティ上の脅威として浮上している。
本研究では、画像分類におけるスプーフ検出のための3つの視覚モデル、MobileNetV2、ResNET50、ViTの性能を評価する。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Digital image spoofing has emerged as a significant security threat in biometric authentication systems, particularly those relying on facial recognition. This study evaluates the performance of three vision based models, MobileNetV2, ResNET50, and Vision Transformer, ViT, for spoof detection in image classification, utilizing a dataset of 150,986 images divided into training , 140,002, testing, 10,984, and validation ,39,574, sets. Spoof detection is critical for enhancing the security of image recognition systems, and this research compares the models effectiveness through accuracy, precision, recall, and F1 score metrics. Results reveal that MobileNetV2 outperforms other architectures on the test dataset, achieving an accuracy of 91.59%, precision of 91.72%, recall of 91.59%, and F1 score of 91.58%, compared to ViT 86.54%, 88.28%, 86.54%, and 86.39%, respectively. On the validation dataset, MobileNetV2, and ViT excel, with MobileNetV2 slightly ahead at 97.17% accuracy versus ViT 96.36%. MobileNetV2 demonstrates faster convergence during training and superior generalization to unseen data, despite both models showing signs of overfitting. These findings highlight MobileNetV2 balanced performance and robustness, making it the preferred choice for spoof detection applications where reliability on new data is essential. The study underscores the importance of model selection in security sensitive contexts and suggests MobileNetV2 as a practical solution for real world deployment.
- Abstract(参考訳): デジタル画像の偽造は、生体認証システム、特に顔認識に依存しているシステムにおいて、重大なセキュリティ上の脅威として浮上している。
本研究では,画像分類におけるスプーフ検出のためのMobileNetV2, ResNET50, Vision Transformer, ViTの3つの視覚モデルの性能を評価し,150,986の画像のデータセットをトレーニング,140,002,テスト,10,984,検証,39,574,セットに分割した。
画像認識システムのセキュリティ向上にはスポフ検出が重要であり,精度,精度,リコール,F1スコアの指標を用いてモデルの有効性を比較した。
その結果、MobileNetV2はテストデータセット上の他のアーキテクチャよりも優れ、精度91.59%、精度91.72%、リコール91.59%、F1スコア91.58%、ViT 86.54%、88.28%、86.54%、86.39%となっている。
検証データセットでは、MobileNetV2とViTは、ViT 96.36%に対して、MobileNetV2は97.17%の精度でわずかに先行している。
MobileNetV2は、両方のモデルがオーバーフィットの兆候を示しているにもかかわらず、トレーニング中の収束の速さと、見えないデータへの優れた一般化を示す。
これらの結果は、MobileNetV2のパフォーマンスとロバストさのバランスを強調しており、新しいデータの信頼性が不可欠であるスプーフ検出アプリケーションに好適な選択である。
この研究は、セキュリティに敏感なコンテキストにおけるモデル選択の重要性を強調し、MobileNetV2を現実のデプロイメントの実践的なソリューションとして提案する。
関連論文リスト
- An Enhancement of CNN Algorithm for Rice Leaf Disease Image Classification in Mobile Applications [0.0]
本研究では,従来コンボリューショナルニューラルネットワーク(CNN)モデルに頼っていたイネ葉病画像分類アルゴリズムの強化に焦点を当てた。
我々は、CNNのローカル特徴抽出とVision Transformersのグローバルコンテキスト学習を統合する軽量モデルであるImageNet-1k weightsを用いて、MobileViTV2_050で転送学習を採用した。
このアプローチにより、MobileViTV2_050-Aの分類精度が15.66%向上し、ベースラインデータセットでトレーニングされた最初の拡張モデルが93.14%に達した。
論文 参考訳(メタデータ) (2024-12-10T04:41:10Z) - Uncertainty Estimation for 3D Object Detection via Evidential Learning [63.61283174146648]
本稿では,3次元検出器における鳥の視線表示における明らかな学習損失を利用して,3次元物体検出の不確かさを定量化するためのフレームワークを提案する。
本研究では,これらの不確実性評価の有効性と重要性を,分布外シーンの特定,局所化の不十分な物体の発見,および(偽陰性)検出の欠如について示す。
論文 参考訳(メタデータ) (2024-10-31T13:13:32Z) - Liveness Detection in Computer Vision: Transformer-based Self-Supervised Learning for Face Anti-Spoofing [0.0]
顔認識システムは、攻撃者が写真、ビデオ、マスクを使って正当なユーザーを偽装する攻撃に対して脆弱である。
この研究は、DINOフレームワークで微調整されたVision Transformer (ViT)アーキテクチャを探索することで、これらの脆弱性に対処する。
論文 参考訳(メタデータ) (2024-06-19T21:44:43Z) - Defect Analysis of 3D Printed Cylinder Object Using Transfer Learning
Approaches [0.51795041186793]
本研究では3次元プリントシリンダの欠陥検出における機械学習アプローチ,特にトランスファーラーニング(TL)モデルの有効性について検討する。
VGG16, VGG19, ResNet50, ResNet101, InceptionResNetV2, MobileNetV2 などのモデルを用いてシリンダー画像の解析を行った。
結果から,アルゴリズムによって性能は異なるものの,特定のTLモデルによってAM欠陥分類の精度が高いことが示唆された。
論文 参考訳(メタデータ) (2023-10-12T18:10:36Z) - Benchmarking Deep Learning Frameworks for Automated Diagnosis of Ocular
Toxoplasmosis: A Comprehensive Approach to Classification and Segmentation [1.3701366534590498]
眼トキソプラズマ症(Ocular Toxoplasmosis,OT)は、眼疾患を引き起こすT. gondiiによって引き起こされる一般的な眼感染症である。
本研究は、DL技術を活用し、安価で自動化され、使いやすく、正確な診断方法を開発しようとしている将来の研究者のためのガイドを提供する。
論文 参考訳(メタデータ) (2023-05-18T13:42:15Z) - ViT Unified: Joint Fingerprint Recognition and Presentation Attack
Detection [36.05807963935458]
我々は、視覚変換器のアーキテクチャを、関節スプーフ検出とマッチングに活用する。
我々は、シーケンシャルシステムと統一アーキテクチャの両方に対して、最先端のSOTA(State-of-the-art)モデルによる競合結果を報告する。
We demonstrate the capabilities of our unified model to achieve a average integrated matching (IM) accuracy of 98.87% across LivDet 2013 and 2015 CrossMatch sensor。
論文 参考訳(メタデータ) (2023-05-12T16:51:14Z) - Uncertainty-inspired Open Set Learning for Retinal Anomaly
Identification [71.06194656633447]
9つの網膜条件の基底像をトレーニングし,不確実性に着想を得たオープンセット(UIOS)モデルを構築した。
しきい値戦略を持つUIOSモデルはF1スコア99.55%、97.01%、91.91%を達成した。
UIOSは、高い不確実性スコアを正しく予測し、非ターゲットの網膜疾患、低品質の眼底画像、および非基本画像のデータセットを手動でチェックする必要があることを示唆した。
論文 参考訳(メタデータ) (2023-04-08T10:47:41Z) - Reinforce Data, Multiply Impact: Improved Model Accuracy and Robustness
with Dataset Reinforcement [68.44100784364987]
本研究では、強化データセット上でトレーニングされたモデルアーキテクチャの精度が、ユーザにとって追加のトレーニングコストなしで向上するように、データセットを改善する戦略を提案する。
ImageNet+と呼ばれるImageNetトレーニングデータセットの強化バージョンと、強化されたデータセットCIFAR-100+、Flowers-102+、Food-101+を作成します。
ImageNet+でトレーニングされたモデルは、より正確で、堅牢で、校正され、下流タスクにうまく転送されます。
論文 参考訳(メタデータ) (2023-03-15T23:10:17Z) - The Report on China-Spain Joint Clinical Testing for Rapid COVID-19 Risk
Screening by Eye-region Manifestations [59.48245489413308]
携帯電話カメラで中国とスペインで撮影された視線領域の画像を用いて、新型コロナウイルスの早期スクリーニングモデルを開発し、テストした。
AUC, 感度, 特異性, 精度, F1。
論文 参考訳(メタデータ) (2021-09-18T02:28:01Z) - VOLO: Vision Outlooker for Visual Recognition [148.12522298731807]
視覚変換器 (ViT) はイメージネット分類において自己注意に基づくモデルの可能性を示している。
我々は、新しい展望の展望を導入し、VoLO(Vision Outlooker)と呼ばれる、シンプルで一般的なアーキテクチャを提示する。
グローバルな依存性モデリングを粗いレベルで重視する自己注意とは異なり、展望はより詳細な機能やコンテキストをトークンに効率的にエンコードする。
実験の結果、私たちのVOLOはImageNet-1K分類で87.1%のトップ1の精度を達成しており、これはこの競合ベンチマークで87%以上の精度で最初のモデルである。
論文 参考訳(メタデータ) (2021-06-24T15:46:54Z) - Vision Transformers are Robust Learners [65.91359312429147]
ビジョントランスフォーマー(ViT)の一般的な腐敗や摂動、分布シフト、自然逆転例に対する堅牢性について検討します。
ViTsが実際により堅牢な学習者である理由を説明するために、定量的および定性的な指標を提供する分析を提示します。
論文 参考訳(メタデータ) (2021-05-17T02:39:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。