論文の概要: Sound-Print: Generalised Face Presentation Attack Detection using Deep
Representation of Sound Echoes
- arxiv url: http://arxiv.org/abs/2309.13704v1
- Date: Sun, 24 Sep 2023 17:32:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 18:03:38.338627
- Title: Sound-Print: Generalised Face Presentation Attack Detection using Deep
Representation of Sound Echoes
- Title(参考訳): 音声エコーの深部表現を用いた顔提示アタック検出の一般化
- Authors: Raghavendra Ramachandra, Jag Mohan Singh, Sushma Venkatesh
- Abstract要約: 送信信号の反射プロファイルに基づいてPAを検出するスマートフォンに,音響エコーによる顔提示検出(PAD)を提案する。
ヒトの皮膚と人工物の反射特性が異なるため, ホウ素およびPAの反射プロファイルは異なる。
- 参考スコア(独自算出の注目度): 3.4062121615342553
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Facial biometrics are widely deployed in smartphone-based applications
because of their usability and increased verification accuracy in unconstrained
scenarios. The evolving applications of smartphone-based facial recognition
have also increased Presentation Attacks (PAs), where an attacker can present a
Presentation Attack Instrument (PAI) to maliciously gain access to the
application. Because the materials used to generate PAI are not deterministic,
the detection of unknown presentation attacks is challenging. In this paper, we
present an acoustic echo-based face Presentation Attack Detection (PAD) on a
smartphone in which the PAs are detected based on the reflection profiles of
the transmitted signal. We propose a novel transmission signal based on the
wide pulse that allows us to model the background noise before transmitting the
signal and increase the Signal-to-Noise Ratio (SNR). The received signal
reflections were processed to remove background noise and accurately represent
reflection characteristics. The reflection profiles of the bona fide and PAs
are different owing to the different reflection characteristics of the human
skin and artefact materials. Extensive experiments are presented using the
newly collected Acoustic Sound Echo Dataset (ASED) with 4807 samples captured
from bona fide and four different types of PAIs, including print (two types),
display, and silicone face-mask attacks. The obtained results indicate the
robustness of the proposed method for detecting unknown face presentation
attacks.
- Abstract(参考訳): 顔のバイオメトリックスは、ユーザビリティと制約のないシナリオでの検証精度の向上のために、スマートフォンベースのアプリケーションで広く展開されている。
スマートフォンベースの顔認識の進化する応用はプレゼンテーションアタック(PA)も増加しており、攻撃者は悪意あるアプリケーションへのアクセスを得るためにプレゼンテーションアタックインスツルメンツ(PAI)を提示することができる。
PAIを生成する材料は決定論的ではないため、未知の提示攻撃を検出することは困難である。
本稿では,送信信号の反射プロファイルに基づいてpasを検出するスマートフォン上で,音響エコーによる顔提示攻撃検出(pad)を行う。
本稿では,信号の送信前に背景雑音をモデル化し,SNR(Signal-to-Noise Ratio)を増大させる,広パルスに基づく新しい伝送信号を提案する。
受信信号の反射を処理して背景ノイズを除去し、反射特性を正確に表現した。
ヒトの皮膚と人工物の反射特性が異なるため, ホウ素およびPAの反射プロファイルは異なる。
新たに収集された音響音響エコーデータセット(ased)と4807のサンプル、印刷(2種類)、ディスプレイ、シリコーンマスク攻撃を含む4種類のpaisを用いて広範な実験を行った。
その結果,未知の顔提示攻撃を検出する手法の頑健性が示唆された。
関連論文リスト
- Decoding Emotions: Unveiling Facial Expressions through Acoustic Sensing with Contrastive Attention [7.975498710858804]
FacER+はアクティブな音声表情認識システムである。
スマートフォンの3D顔輪郭とイヤホンスピーカとの間に放射される近超音波信号のエコーを分析して、表情特徴を抽出する。
多様なユーザーに依存しない現実のシナリオにおいて、90%以上の精度で6つの一般的な表情を正確に認識することができる。
論文 参考訳(メタデータ) (2024-10-01T03:21:33Z) - VoxAtnNet: A 3D Point Clouds Convolutional Neural Network for Generalizable Face Presentation Attack Detection [2.6118211807973157]
顔バイオメトリックシステムはプレゼンテーションアタック(PA)に対して脆弱である
本稿では,スマートフォンの前面カメラを用いて捉えた3次元点雲に基づくプレゼンテーション攻撃検出(PAD)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-19T07:30:36Z) - SHIELD : An Evaluation Benchmark for Face Spoofing and Forgery Detection
with Multimodal Large Language Models [63.946809247201905]
フェーススプーフィングと偽造検出におけるMLLMの能力を評価するための新しいベンチマーク、ShielDを導入する。
我々は、これらの2つの顔セキュリティタスクにおいて、マルチモーダル顔データを評価するために、真/偽/複数選択の質問を設計する。
その結果,MLLMは顔セキュリティ領域において大きな可能性を秘めていることがわかった。
論文 参考訳(メタデータ) (2024-02-06T17:31:36Z) - Exploring Decision-based Black-box Attacks on Face Forgery Detection [53.181920529225906]
顔の偽造生成技術は鮮明な顔を生み出し、セキュリティとプライバシーに対する世間の懸念を高めている。
顔偽造検出は偽の顔の識別に成功しているが、最近の研究では顔偽造検出は敵の例に対して非常に脆弱であることが示されている。
論文 参考訳(メタデータ) (2023-10-18T14:49:54Z) - RIS-Assisted Wireless Link Signatures for Specific Emitter Identification [32.865668126367275]
本稿では,PLA中のチャネル指紋を正規送信者がカスタマイズ可能な,再構成可能なインテリジェントサーフェス(RIS)支援PLAシステムを提案する。
我々はPLAの統計的性質を導出し、RIS支援PLAが理論的に実現可能であることを示す興味深い洞察を与える。
RIS支援PLAプロトタイププラットフォーム上での概念実証実験により,本システムの実現可能性を確認した。
論文 参考訳(メタデータ) (2023-09-14T14:15:43Z) - An Open Patch Generator based Fingerprint Presentation Attack Detection
using Generative Adversarial Network [3.5558308387389626]
自動指紋認識システム(AFRS)のセンサに本物の指紋の偽造を提示することによる脅威の一つに、提示攻撃(PA)または偽造(spoofing)がある。
本稿では、GAN(Generative Adversarial Network)を用いて、提案したOpen Patch Generator(OPG)から生成されたスプーフサンプルを用いてデータセットを増強するCNNベースの手法を提案する。
96.20%、94.97%、92.90%の精度は、それぞれLivDetプロトコルのシナリオの下で、LivDet 2015、2017、2019データベースで達成されている。
論文 参考訳(メタデータ) (2023-06-06T10:52:06Z) - Face Presentation Attack Detection [59.05779913403134]
顔認識技術は、チェックインやモバイル支払いといった日々の対話的アプリケーションで広く利用されている。
しかしながら、プレゼンテーションアタック(PA)に対する脆弱性は、超セキュアなアプリケーションシナリオにおける信頼性の高い使用を制限する。
論文 参考訳(メタデータ) (2022-12-07T14:51:17Z) - Dual Spoof Disentanglement Generation for Face Anti-spoofing with Depth
Uncertainty Learning [54.15303628138665]
フェース・アンチ・スプーフィング(FAS)は、顔認識システムが提示攻撃を防ぐ上で重要な役割を担っている。
既存のフェース・アンチ・スプーフィング・データセットは、アイデンティティと重要なばらつきが不十分なため、多様性を欠いている。
我々は「生成によるアンチ・スプーフィング」によりこの問題に対処するデュアル・スポット・ディアンタングメント・ジェネレーション・フレームワークを提案する。
論文 参考訳(メタデータ) (2021-12-01T15:36:59Z) - Deep convolutional neural networks for face and iris presentation attack
detection: Survey and case study [0.5801044612920815]
顔PADのクロスデータセット評価は,術式よりも一般化が良好であった。
顔と虹彩の両方の攻撃を検出するために訓練された1つのディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-25T02:06:19Z) - Deep Spatial Gradient and Temporal Depth Learning for Face Anti-spoofing [61.82466976737915]
深層学習は、顔の反偽造の最も効果的な方法の1つとして証明されている。
2つの洞察に基づいて,複数フレームからの提示攻撃を検出する新しい手法を提案する。
提案手法は,5つのベンチマークデータセットの最先端結果を実現する。
論文 参考訳(メタデータ) (2020-03-18T06:11:20Z) - Face Anti-Spoofing by Learning Polarization Cues in a Real-World
Scenario [50.36920272392624]
顔の偽造は生体認証アプリケーションにおけるセキュリティ侵害を防ぐ鍵となる。
RGBと赤外線画像を用いたディープラーニング手法は,新たな攻撃に対する大量のトレーニングデータを必要とする。
本研究では,実顔の偏光画像の物理的特徴を自動的に学習することにより,現実のシナリオにおける顔のアンチ・スプーフィング手法を提案する。
論文 参考訳(メタデータ) (2020-03-18T03:04:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。