論文の概要: Explainable Face Presentation Attack Detection via Ensemble-CAM
- arxiv url: http://arxiv.org/abs/2510.19695v1
- Date: Wed, 22 Oct 2025 15:45:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:16.11853
- Title: Explainable Face Presentation Attack Detection via Ensemble-CAM
- Title(参考訳): Ensemble-CAMによる説明可能な顔提示検出
- Authors: Rashik Shadman, M G Sarwar Murshed, Faraz Hussain,
- Abstract要約: プレゼンテーションアタック検出(PAD)システムは、ディープラーニング(DL)モデルを利用して、この種の脅威を軽減するように設計されている。
有効性にもかかわらず、ほとんどのDLモデルはブラックボックスとして機能します。
本研究では,深層学習に基づく顔PADシステムによる意思決定を視覚的に説明するための新しい手法であるEnsemble-CAMを提案する。
- 参考スコア(独自算出の注目度): 0.20177043536481845
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Presentation attacks represent a critical security threat where adversaries use fake biometric data, such as face, fingerprint, or iris images, to gain unauthorized access to protected systems. Various presentation attack detection (PAD) systems have been designed leveraging deep learning (DL) models to mitigate this type of threat. Despite their effectiveness, most of the DL models function as black boxes - their decisions are opaque to their users. The purpose of explainability techniques is to provide detailed information about the reason behind the behavior or decision of DL models. In particular, visual explanation is necessary to better understand the decisions or predictions of DL-based PAD systems and determine the key regions due to which a biometric image is considered real or fake by the system. In this work, a novel technique, Ensemble-CAM, is proposed for providing visual explanations for the decisions made by deep learning-based face PAD systems. Our goal is to improve DL-based face PAD systems by providing a better understanding of their behavior. Our provided visual explanations will enhance the transparency and trustworthiness of DL-based face PAD systems.
- Abstract(参考訳): 提示攻撃は、敵が顔、指紋、虹彩画像などの偽の生体データを使用して保護されたシステムに不正アクセスする重大なセキュリティ上の脅威である。
様々なプレゼンテーションアタック検出(PAD)システムは、このタイプの脅威を軽減するために、ディープラーニング(DL)モデルを活用するように設計されている。
有効性にもかかわらず、ほとんどのDLモデルはブラックボックスとして機能します。
説明可能性技術の目的は、DLモデルの振る舞いや決定の背後にある理由に関する詳細な情報を提供することである。
特に、DLベースのPADシステムの決定や予測をよりよく理解し、生体画像が実物または偽物と見なされる鍵領域を決定するためには、視覚的説明が必要である。
本研究では,深層学習に基づく顔PADシステムによる意思決定を視覚的に説明するための新しい手法であるEnsemble-CAMを提案する。
我々の目標は、DLベースの顔PADシステムを改善することであり、その振る舞いをよりよく理解することである。
得られた視覚的説明は、DLベースの顔PADシステムの透明性と信頼性を高める。
関連論文リスト
- Explainable but Vulnerable: Adversarial Attacks on XAI Explanation in Cybersecurity Applications [0.21485350418225244]
説明可能な人工知能(XAI)は、ブラックボックスモデルの決定を精査する能力を持つ機械学習(ML)研究者を支援している。
XAIメソッド自体は、説明モジュールから期待された結果を操作する、攻撃後の攻撃の犠牲になる可能性がある。
論文 参考訳(メタデータ) (2025-10-04T02:07:58Z) - FaceShield: Explainable Face Anti-Spoofing with Multimodal Large Language Models [51.858371492494456]
対面防止(FAS)は、提示攻撃から顔認識システムを保護するために不可欠である。
現在、FASタスク用に特別に設計された、普遍的で包括的なMLLMとデータセットは存在しない。
FASのためのMLLMであるFaceShieldと、それに対応する事前学習および教師付き微調整データセットを提案する。
命令データセット、プロトコル、コードはまもなくリリースされます。
論文 参考訳(メタデータ) (2025-05-14T14:10:43Z) - Learning Knowledge-based Prompts for Robust 3D Mask Presentation Attack Detection [84.21257150497254]
本稿では,3次元マスク提示攻撃検出のための視覚言語モデルの強力な一般化能力を検討するための,知識に基づく新しいプロンプト学習フレームワークを提案する。
実験により,提案手法は最先端のシナリオ内およびクロスシナリオ検出性能を実現することを示す。
論文 参考訳(メタデータ) (2025-05-06T15:09:23Z) - Explainable Face Recognition via Improved Localization [1.334824518603753]
ディープラーニングベースの顔認識システムは、ブラックボックスモデルのように動作し、意思決定に必要な説明や正当化を提供しない。
これは、ユーザーはそのような人工知能ベースの生体認証システムを信頼できないため、明確な説明や正当化が提供されていない場合、それらを使用するのが快適ではない可能性があるため、大きな欠点である。
深層学習に基づく顔認識システムの結果を視覚的に説明するために,クラスアクティベーションマッピング (CAM) に基づく識別的ローカライゼーション (非常に狭小/特異的なローカライゼーション) 技術であるスケールドディレクテッド・ディバージェンス (SDD) を用いる。
論文 参考訳(メタデータ) (2025-05-04T21:58:16Z) - Principles of Designing Robust Remote Face Anti-Spoofing Systems [60.05766968805833]
本稿では,デジタル攻撃に対する最先端の対面防止手法の脆弱性に光を当てる。
反偽造システムに遭遇する一般的な脅威を包括的に分類する。
論文 参考訳(メタデータ) (2024-06-06T02:05:35Z) - An Efficient Ensemble Explainable AI (XAI) Approach for Morphed Face
Detection [1.2599533416395763]
深層学習予測モデル(EfficientNet-Grad1)のより包括的な視覚的説明を提供するために,Ensemble XAIという新しい視覚的説明手法を提案する。
実験は、Face Research Lab London Set、Wide Multi-Channel Presentation Attack (WMCA)、Makeup induced Face Spoofing (MIFS)の3つの公開データセットで実施された。
論文 参考訳(メタデータ) (2023-04-23T13:43:06Z) - Face Presentation Attack Detection [59.05779913403134]
顔認識技術は、チェックインやモバイル支払いといった日々の対話的アプリケーションで広く利用されている。
しかしながら、プレゼンテーションアタック(PA)に対する脆弱性は、超セキュアなアプリケーションシナリオにおける信頼性の高い使用を制限する。
論文 参考訳(メタデータ) (2022-12-07T14:51:17Z) - Providing Error Detection for Deep Learning Image Classifiers Using
Self-Explainability [0.0]
本稿では,自己誤り検出を行う画像分類問題に対する自己説明可能なディープラーニングシステムを提案する。
SE-DLシステムは、クラス予測と、その予測に関する説明の両方を出力する。
提案するSE-DLシステムの説明を利用して,システムの潜在的なクラス予測誤差を検出する。
論文 参考訳(メタデータ) (2022-10-15T06:50:57Z) - Hiding Visual Information via Obfuscating Adversarial Perturbations [47.315523613407244]
本稿では,データの視覚的プライバシを保護するために,敵対的な視覚情報隠蔽手法を提案する。
具体的には、データの視覚情報を隠蔽する難読化対向摂動を生成する。
認識・分類タスクの実験結果から,提案手法が視覚情報を効果的に隠蔽できることが示唆された。
論文 参考訳(メタデータ) (2022-09-30T08:23:26Z) - Attribute Inference Attack of Speech Emotion Recognition in Federated
Learning Settings [56.93025161787725]
Federated Learning(FL)は、クライアントをコーディネートして、ローカルデータを共有せずにモデルを協調的にトレーニングする分散機械学習パラダイムである。
本稿では,共有勾配やモデルパラメータからクライアントの機密属性情報を推測する属性推論攻撃フレームワークを提案する。
FLを用いて学習したSERシステムに対して,属性推論攻撃が達成可能であることを示す。
論文 参考訳(メタデータ) (2021-12-26T16:50:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。