論文の概要: Analysis of Master Vein Attacks on Finger Vein Recognition Systems
- arxiv url: http://arxiv.org/abs/2210.10667v1
- Date: Tue, 18 Oct 2022 06:36:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 14:56:24.847312
- Title: Analysis of Master Vein Attacks on Finger Vein Recognition Systems
- Title(参考訳): 指静脈認識システムにおけるマスター静脈攻撃の解析
- Authors: Huy H. Nguyen, Trung-Nghia Le, Junichi Yamagishi, and Isao Echizen
- Abstract要約: フィンガー静脈認識(FVR)システムは、特にATMで顧客の認証に使われている。
特に手作りのFVRシステムを使用する場合, 様々な攻撃方法に対するロバスト性を計測することが不可欠である。
私たちは、可能な限り多くの身元に一致するように静脈のように見える画像を作成するマスター静脈発作を導入した最初の文献である。
- 参考スコア(独自算出の注目度): 42.63580709376905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Finger vein recognition (FVR) systems have been commercially used, especially
in ATMs, for customer verification. Thus, it is essential to measure their
robustness against various attack methods, especially when a hand-crafted FVR
system is used without any countermeasure methods. In this paper, we are the
first in the literature to introduce master vein attacks in which we craft a
vein-looking image so that it can falsely match with as many identities as
possible by the FVR systems. We present two methods for generating master veins
for use in attacking these systems. The first uses an adaptation of the latent
variable evolution algorithm with a proposed generative model (a multi-stage
combination of beta-VAE and WGAN-GP models). The second uses an adversarial
machine learning attack method to attack a strong surrogate CNN-based
recognition system. The two methods can be easily combined to boost their
attack ability. Experimental results demonstrated that the proposed methods
alone and together achieved false acceptance rates up to 73.29% and 88.79%,
respectively, against Miura's hand-crafted FVR system. We also point out that
Miura's system is easily compromised by non-vein-looking samples generated by a
WGAN-GP model with false acceptance rates up to 94.21%. The results raise the
alarm about the robustness of such systems and suggest that master vein attacks
should be considered an important security measure.
- Abstract(参考訳): フィンガー静脈認識(FVR)システムは、特にATMで顧客の認証に使われている。
したがって,手作りのFVRシステムを使用する場合,特に対策を施さない場合には,様々な攻撃方法に対するロバスト性を測定することが不可欠である。
本稿では、fvrシステムでできる限り多くの身元を誤認できるように、静脈のような画像を作成するマスター静脈攻撃を紹介する最初の文献である。
本稿では,これらのシステムに対する攻撃に使用するマスタ静脈を生成する2つの方法を提案する。
一つは、提案する生成モデル(β-vaeモデルとwgan-gpモデルの多段階組み合わせ)を用いた潜在変数進化アルゴリズムの適応化である。
2つめは、攻撃的機械学習攻撃法を用いてcnnベースの強力な認識システムを攻撃する。
この2つの方法は容易に組み合わせて攻撃能力を高めることができる。
実験の結果,三浦の手作りfvrシステムに対して,提案手法単独で73.29%,88.79%の誤受率を達成した。
また,WGAN-GPモデルが生成した非ベイン型サンプルにより,94.21%の誤認率でミウラのシステムが容易に損なわれることを指摘した。
その結果,このようなシステムのロバスト性に対するアラームが高まり,マスター静脈発作は重要なセキュリティ対策であると考えられた。
関連論文リスト
- Lazy Layers to Make Fine-Tuned Diffusion Models More Traceable [70.77600345240867]
新たな任意の任意配置(AIAO)戦略は、微調整による除去に耐性を持たせる。
拡散モデルの入力/出力空間のバックドアを設計する既存の手法とは異なり,本手法では,サンプルサブパスの特徴空間にバックドアを埋め込む方法を提案する。
MS-COCO,AFHQ,LSUN,CUB-200,DreamBoothの各データセットに関する実証研究により,AIAOの堅牢性が確認された。
論文 参考訳(メタデータ) (2024-05-01T12:03:39Z) - ViT Unified: Joint Fingerprint Recognition and Presentation Attack
Detection [36.05807963935458]
我々は、視覚変換器のアーキテクチャを、関節スプーフ検出とマッチングに活用する。
我々は、シーケンシャルシステムと統一アーキテクチャの両方に対して、最先端のSOTA(State-of-the-art)モデルによる競合結果を報告する。
We demonstrate the capabilities of our unified model to achieve a average integrated matching (IM) accuracy of 98.87% across LivDet 2013 and 2015 CrossMatch sensor。
論文 参考訳(メタデータ) (2023-05-12T16:51:14Z) - Understanding the Vulnerability of Skeleton-based Human Activity Recognition via Black-box Attack [53.032801921915436]
HAR(Human Activity Recognition)は、自動運転車など、幅広い用途に採用されている。
近年,敵対的攻撃に対する脆弱性から,骨格型HAR法の堅牢性に疑問が呈されている。
攻撃者がモデルの入出力しかアクセスできない場合でも、そのような脅威が存在することを示す。
BASARと呼ばれる骨格をベースとしたHARにおいて,最初のブラックボックス攻撃手法を提案する。
論文 参考訳(メタデータ) (2022-11-21T09:51:28Z) - Generative Adversarial Network-Driven Detection of Adversarial Tasks in
Mobile Crowdsensing [5.675436513661266]
クラウドセンシングシステムは、不特定かつユビキタスなプロパティの上に構築されるため、さまざまな攻撃に対して脆弱である。
以前の研究では、GANベースの攻撃は実験的に設計された攻撃サンプルよりも重大な破壊力を示すことが示唆されている。
本稿では,GANモデルを統合することにより,知的に設計された不正なセンシングサービス要求を検出することを目的とする。
論文 参考訳(メタデータ) (2022-02-16T00:23:25Z) - Launching Adversarial Attacks against Network Intrusion Detection
Systems for IoT [5.077661193116692]
テクノロジーは、セキュリティが後発である利益主導のモノのインターネット市場にシフトしています。
従来の防御アプローチは、既知の攻撃と未知の攻撃の両方を高精度に検出するのに十分ではない。
機械学習による侵入検知システムは、未知の攻撃を高精度に特定することに成功した。
論文 参考訳(メタデータ) (2021-04-26T09:36:29Z) - Anomaly Detection with Convolutional Autoencoders for Fingerprint
Presentation Attack Detection [11.879849130630406]
提示攻撃検出(PAD)法は、ボナファイド被検体由来のサンプルと、提示攻撃装置(PAI)由来のサンプルとを判定するために用いられる。
短波長赤外領域で捕獲されたボナファイドサンプル(すなわち1クラス)にのみ訓練されたオートエンコーダ(AE)に基づく新しいPAD手法を提案する。
論文 参考訳(メタデータ) (2020-08-18T15:33:41Z) - Investigating Robustness of Adversarial Samples Detection for Automatic
Speaker Verification [78.51092318750102]
本研究は,ASVシステムに対して,別個の検出ネットワークによる敵攻撃から防御することを提案する。
VGGライクな二分分類検出器を導入し、対向サンプルの検出に有効であることが実証された。
論文 参考訳(メタデータ) (2020-06-11T04:31:56Z) - A Self-supervised Approach for Adversarial Robustness [105.88250594033053]
敵対的な例は、ディープニューラルネットワーク(DNN)ベースの視覚システムにおいて破滅的な誤りを引き起こす可能性がある。
本稿では,入力空間における自己教師型対向学習機構を提案する。
これは、反逆攻撃に対する強力な堅牢性を提供する。
論文 参考訳(メタデータ) (2020-06-08T20:42:39Z) - Temporal Sparse Adversarial Attack on Sequence-based Gait Recognition [56.844587127848854]
このような攻撃に対して,最先端の歩行認識モデルが脆弱であることを示す。
生成した対向ネットワークに基づくアーキテクチャを用いて、対向的な高品質な歩行シルエットやビデオフレームを意味的に生成する。
実験結果から, フレームの1分の1しか攻撃されない場合, 対象モデルの精度は劇的に低下することがわかった。
論文 参考訳(メタデータ) (2020-02-22T10:08:42Z) - On the Resilience of Biometric Authentication Systems against Random
Inputs [6.249167635929514]
我々は,一様ランダム入力を送信した攻撃者に対して,機械学習に基づく生体認証システムのセキュリティを評価する。
特に, 平均FPR0.03の再構成バイオメトリックシステムでは, 成功率は0.78であった。
論文 参考訳(メタデータ) (2020-01-13T04:20:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。