論文の概要: Fingerprint Presentation Attack Detection by Channel-wise Feature
Denoising
- arxiv url: http://arxiv.org/abs/2111.07620v1
- Date: Mon, 15 Nov 2021 09:13:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-16 16:13:22.988995
- Title: Fingerprint Presentation Attack Detection by Channel-wise Feature
Denoising
- Title(参考訳): チャネルワイズ特徴量による指紋提示攻撃検出
- Authors: Feng Liu, Zhe Kong, Haozhe Liu, Wentian Zhang, Linlin Shen
- Abstract要約: 指紋認識システム(AFRS)は悪意のある攻撃に対して脆弱である。
現在のフィンガープリント提示攻撃検出法は、新しい攻撃材料やセンサー設定下では、しばしばロバスト性に欠ける。
本稿では,CFD-PAD (Channel-wise Feature Denoising fingerprint PAD) 法を提案する。
- 参考スコア(独自算出の注目度): 18.933809452711163
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the diversity of attack materials, fingerprint recognition systems
(AFRSs) are vulnerable to malicious attacks. It is of great importance to
propose effective Fingerprint Presentation Attack Detection (PAD) methods for
the safety and reliability of AFRSs. However, current PAD methods often have
poor robustness under new attack materials or sensor settings. This paper thus
proposes a novel Channel-wise Feature Denoising fingerprint PAD (CFD-PAD)
method by considering handling the redundant "noise" information which ignored
in previous works. The proposed method learned important features of
fingerprint images by weighting the importance of each channel and finding
those discriminative channels and "noise" channels. Then, the propagation of
"noise" channels is suppressed in the feature map to reduce interference.
Specifically, a PA-Adaption loss is designed to constrain the feature
distribution so as to make the feature distribution of live fingerprints more
aggregate and spoof fingerprints more disperse. Our experimental results
evaluated on LivDet 2017 showed that our proposed CFD-PAD can achieve 2.53% ACE
and 93.83% True Detection Rate when the False Detection Rate equals to 1.0%
(TDR@FDR=1%) and it outperforms the best single model based methods in terms of
ACE (2.53% vs. 4.56%) and TDR@FDR=1%(93.83% vs. 73.32\%) significantly, which
proves the effectiveness of the proposed method. Although we have achieved a
comparable result compared with the state-of-the-art multiple model based
method, there still achieves an increase of TDR@FDR=1% from 91.19% to 93.83% by
our method. Besides, our model is simpler, lighter and, more efficient and has
achieved a 74.76% reduction in time-consuming compared with the
state-of-the-art multiple model based method. Code will be publicly available.
- Abstract(参考訳): 攻撃素材の多様性のため、指紋認識システム(AFRS)は悪意のある攻撃に対して脆弱である。
AFRSの安全性と信頼性のための効果的な指紋提示検出(PAD)手法を提案することが重要である。
しかしながら、現在のPAD法は、新しい攻撃材料やセンサー設定下では、しばしばロバスト性に欠ける。
本稿では,従来無視されていた冗長な「ノイズ」情報を扱うことを考慮した,チャネルワイズ・フィーチャー・デノージング指紋PAD(CFD-PAD)手法を提案する。
提案手法は,各チャンネルの重要度を重み付け,識別チャネルと「ノイズ」チャネルを見つけることによって,指紋画像の重要な特徴を学習した。
そして、特徴マップにおいて「ノイズ」チャネルの伝搬を抑制し、干渉を低減する。
具体的には、PA適応損失が特徴分布を制限し、ライブ指紋の特徴分布をより集約し、スプーフ指紋をより分散させるように設計されている。
提案したCFD-PADは,False Detection rateが1.0%(TDR@FDR=1%)である場合に,2.53%のACEと93.83%のTrue Detection Rateを達成でき,ACE(2.53% vs. 4.56%)とTDR@FDR=1%(93.83% vs. 73.32\%)で最高の単一モデルベース手法を著しく上回り,提案手法の有効性を証明した。
我々は、最先端のマルチモデルベース手法と同等の結果を得たが、TDR@FDR=1%が91.19%から93.83%に増加している。
さらに,本モデルはよりシンプルで,より効率的であり,最先端のマルチモデルベース手法と比較して74.76%の時間消費削減を実現している。
コードは公開されます。
関連論文リスト
- A Multi-Modal Approach for Face Anti-Spoofing in Non-Calibrated Systems using Disparity Maps [0.6144680854063939]
顔認識技術は、顔の偽造攻撃に対して脆弱である。
ステレオ深度カメラはこのような攻撃を効果的に検出できるが、その高いコストで採用が制限される。
本稿では,顔の特徴を利用して異質情報を導き出すことにより,この課題を克服する手法を提案する。
論文 参考訳(メタデータ) (2024-10-31T15:29:51Z) - Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - ODDR: Outlier Detection & Dimension Reduction Based Defense Against Adversarial Patches [4.4100683691177816]
敵対的攻撃は、機械学習モデルの信頼性の高いデプロイに重大な課題をもたらす。
パッチベースの敵攻撃に対処するための総合的な防御戦略である外乱検出・次元削減(ODDR)を提案する。
提案手法は,逆パッチに対応する入力特徴を外れ値として同定できるという観測に基づいている。
論文 参考訳(メタデータ) (2023-11-20T11:08:06Z) - DiffAttack: Evasion Attacks Against Diffusion-Based Adversarial
Purification [63.65630243675792]
拡散に基づく浄化防御は拡散モデルを利用して、敵の例の人工摂動を除去する。
近年の研究では、先進的な攻撃でさえ、そのような防御を効果的に破壊できないことが示されている。
拡散型浄化防衛を効果的かつ効率的に行うための統合フレームワークDiffAttackを提案する。
論文 参考訳(メタデータ) (2023-10-27T15:17:50Z) - A Universal Anti-Spoofing Approach for Contactless Fingerprint Biometric
Systems [0.0]
接触のない指紋に対する普遍的な提示攻撃検出法を提案する。
ライブフィンガー写真からStyleGANを用いて合成非接触指紋を生成し,それらを統合して半教師付きResNet-18モデルを訓練した。
両損失関数のバランスをとるために,Arcface と Center の損失を組み合わせた新しい結合損失関数を導入した。
論文 参考訳(メタデータ) (2023-10-23T15:46:47Z) - Diffusion Denoising Process for Perceptron Bias in Out-of-distribution
Detection [67.49587673594276]
我々は、識別器モデルが入力の特定の特徴に対してより敏感であることを示唆する新しいパーセプトロンバイアスの仮定を導入し、過度な問題を引き起こした。
DMの拡散分解過程 (DDP) が非対称の新たな形態として機能し, 入力を高め, 過信問題を緩和するのに適していることを示す。
CIFAR10, CIFAR100, ImageNetによる実験により, 提案手法がSOTA手法より優れていることが示された。
論文 参考訳(メタデータ) (2022-11-21T08:45:08Z) - Guided Diffusion Model for Adversarial Purification [103.4596751105955]
敵攻撃は、様々なアルゴリズムやフレームワークでディープニューラルネットワーク(DNN)を妨害する。
本稿では,GDMP ( Guided diffusion model for purification) と呼ばれる新しい精製法を提案する。
様々なデータセットにわたる包括的実験において,提案したGDMPは,敵対的攻撃によって引き起こされた摂動を浅い範囲に減少させることを示した。
論文 参考訳(メタデータ) (2022-05-30T10:11:15Z) - Diffusion Models for Adversarial Purification [69.1882221038846]
対人浄化(Adrial purification)とは、生成モデルを用いて敵の摂動を除去する防衛方法の分類である。
そこで我々は,拡散モデルを用いたDiffPureを提案する。
提案手法は,現在の対人訓練および対人浄化方法よりも優れ,最先端の成果を達成する。
論文 参考訳(メタデータ) (2022-05-16T06:03:00Z) - Learning to Perform Downlink Channel Estimation in Massive MIMO Systems [72.76968022465469]
大規模マルチインプット・マルチアウトプット(MIMO)システムにおけるダウンリンク(DL)チャネル推定について検討する。
一般的なアプローチは、チャネル硬化によって動機付けられた推定値として平均値を使用することである。
本稿では2つの新しい推定法を提案する。
論文 参考訳(メタデータ) (2021-09-06T13:42:32Z) - Cross Modal Focal Loss for RGBD Face Anti-Spoofing [4.36572039512405]
本稿では,RGBと深度チャネルと新たな損失関数を用いたプレゼンテーション攻撃検出(PAD)のための新しいフレームワークを提案する。
新しいアーキテクチャは、2つのモダリティからの補完的な情報を使用し、オーバーフィットの影響を減らします。
論文 参考訳(メタデータ) (2021-03-01T12:22:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。