論文の概要: Identity Card Presentation Attack Detection: A Systematic Review
- arxiv url: http://arxiv.org/abs/2511.06056v1
- Date: Sat, 08 Nov 2025 15:55:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.731987
- Title: Identity Card Presentation Attack Detection: A Systematic Review
- Title(参考訳): Identity Card Presentation Attack Detection: A Systematic Review
- Authors: Esteban M. Ruiz, Juan E. Tapia, Reinel T. Soto, Christoph Busch,
- Abstract要約: ディープ・ラーニングはプレゼンテーション・アタック検出の進歩を推進した。
この分野は、データの欠如とモデルの一般化の貧弱により、基本的に制限されている。
本稿では,本研究の成果を整理し,重要な研究ギャップを特定し,今後の研究の規範的ロードマップを概説する。
- 参考スコア(独自算出の注目度): 7.7489419818764596
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Remote identity verification is essential for modern digital security; however, it remains highly vulnerable to sophisticated Presentation Attacks (PAs) that utilise forged or manipulated identity documents. Although Deep Learning (DL) has driven advances in Presentation Attack Detection (PAD), the field is fundamentally limited by a lack of data and the poor generalisation of models across various document types and new attack methods. This article presents a systematic literature review (SLR) conducted in accordance with the PRISMA methodology, aiming to analyse and synthesise the current state of AI-based PAD for identity documents from 2020 to 2025 comprehensively. Our analysis reveals a significant methodological evolution: a transition from standard Convolutional Neural Networks (CNNs) to specialised forensic micro-artefact analysis, and more recently, the adoption of large-scale Foundation Models (FMs), marking a substantial shift in the field. We identify a central paradox that hinders progress: a critical "Reality Gap" exists between models validated on extensive, private datasets and those assessed using limited public datasets, which typically consist of mock-ups or synthetic data. This gap limits the reproducibility of research results. Additionally, we highlight a "Synthetic Utility Gap," where synthetic data generation the primary academic response to data scarcity often fails to predict forensic utility. This can lead to model overfitting to generation artefacts instead of the actual attack. This review consolidates our findings, identifies critical research gaps, and provides a definitive reference framework that outlines a prescriptive roadmap for future research aimed at developing secure, robust, and globally generalizable PAD systems.
- Abstract(参考訳): リモートID認証は、現代のデジタルセキュリティにとって不可欠であるが、偽造または操作されたID文書を利用する高度なプレゼンテーションアタック(PA)に対して非常に脆弱である。
ディープ・ラーニング(DL)は、プレゼンテーション・アタック・ディテクト(PAD)の進歩を推進してきたが、データ不足と様々な文書タイプや新しい攻撃方法におけるモデルの一般化の欠如により、この分野は根本的に制限されている。
本稿では、2020年から2025年までのID文書に対するAIベースのPADの現状を総合的に分析・合成することを目的として、PRISMA方法論に従って行われた体系的文献レビュー(SLR)について述べる。
我々の分析は、標準的な畳み込みニューラルネットワーク(CNN)から専門の法科学的マイクロアーティファクト分析への移行、そして最近では、大規模ファンデーションモデル(FM)の導入によって、この分野の大幅な変化が示されている。
重要な"現実ギャップ"は、広範囲でプライベートなデータセットで検証されたモデルと、モックアップや合成データで構成される限られたパブリックデータセットを使用して評価されたモデルの間に存在します。
このギャップは研究結果の再現性を制限する。
さらに、データ不足に対する主要な学術的応答である合成データ生成が、しばしば法医学的有用性を予測するのに失敗する「合成ユーティリティギャップ」を強調した。
これは実際の攻撃ではなく、生成したアーティファクトにオーバーフィットするモデルにつながる可能性がある。
本稿では,本研究の成果を集約し,重要な研究ギャップを特定し,安全で堅牢でグローバルに一般化可能なPADシステム開発を目的とした今後の研究の規範的ロードマップを概説する決定的基準フレームワークを提供する。
関連論文リスト
- A Survey of Heterogeneous Graph Neural Networks for Cybersecurity Anomaly Detection [4.1427901594249255]
不均一グラフニューラルネットワーク(HGNN)は、異常検出のための有望なパラダイムとして登場した。
この調査は、スケーラブルで解釈可能で実用的なデプロイ可能なソリューションに向けて、HGNNベースの異常検出を促進するための構造化された基盤を確立することを目的としている。
論文 参考訳(メタデータ) (2025-10-30T09:49:59Z) - Deep Learning Models for Robust Facial Liveness Detection [56.08694048252482]
本研究では,現代のアンチスプーフィング手法の欠陥に対処する新しい深層学習モデルを用いて,ロバストな解を提案する。
テクスチャ解析と実際の人間の特性に関連する反射特性を革新的に統合することにより、我々のモデルは、顕著な精度でレプリカと真の存在を区別する。
論文 参考訳(メタデータ) (2025-08-12T17:19:20Z) - Anomaly Detection and Generation with Diffusion Models: A Survey [51.61574868316922]
異常検出(AD)は、サイバーセキュリティ、金融、医療、工業製造など、さまざまな分野において重要な役割を担っている。
近年のディープラーニング,特に拡散モデル(DM)の進歩は,大きな関心を集めている。
この調査は、研究者や実践者が様々なアプリケーションにまたがる革新的なADソリューションにDMを利用することをガイドすることを目的としている。
論文 参考訳(メタデータ) (2025-06-11T03:29:18Z) - Methods and Trends in Detecting AI-Generated Images: A Comprehensive Review [0.17188280334580194]
GAN(Generative Adversarial Networks)、拡散モデル(Diffusion Models)、変分オートエンコーダ(VAEs)は、高品質なマルチメディアデータの合成を可能にしている。
これらの進歩は、敵の攻撃、非倫理的使用、社会的な危害に関する重大な懸念を引き起こした。
このサーベイは、先進的な生成AIモデルによって生成された合成画像の検出と分類のための最先端技術に関する包括的なレビューを提供する。
論文 参考訳(メタデータ) (2025-02-21T03:16:18Z) - Model Stealing Attack against Graph Classification with Authenticity, Uncertainty and Diversity [80.16488817177182]
GNNは、クエリ許可を通じてターゲットモデルを複製するための悪行であるモデル盗難攻撃に対して脆弱である。
異なるシナリオに対応するために,3つのモデルステルス攻撃を導入する。
論文 参考訳(メタデータ) (2023-12-18T05:42:31Z) - Geometric Deep Learning for Structure-Based Drug Design: A Survey [83.87489798671155]
構造に基づく薬物設計(SBDD)は、タンパク質の3次元幾何学を利用して、潜在的な薬物候補を特定する。
近年の幾何学的深層学習の進歩は、3次元幾何学的データを効果的に統合・処理し、この分野を前進させてきた。
論文 参考訳(メタデータ) (2023-06-20T14:21:58Z) - Poisoning Attacks and Defenses on Artificial Intelligence: A Survey [3.706481388415728]
データ中毒攻撃は、トレーニングフェーズ中にモデルに供給されたデータサンプルを改ざんして、推論フェーズ中にモデルの精度を低下させる攻撃の一種である。
この研究は、この種の攻撃に対処する最新の文献で見つかった最も関連性の高い洞察と発見をまとめたものである。
実環境下での幅広いMLモデルに対するデータ中毒の影響を比較検討し,本研究の徹底的な評価を行った。
論文 参考訳(メタデータ) (2022-02-21T14:43:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。