論文の概要: A Parametric Approach to Adversarial Augmentation for Cross-Domain Iris Presentation Attack Detection
- arxiv url: http://arxiv.org/abs/2412.07199v1
- Date: Tue, 10 Dec 2024 05:31:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:37:13.739469
- Title: A Parametric Approach to Adversarial Augmentation for Cross-Domain Iris Presentation Attack Detection
- Title(参考訳): クロスドメインアイリス提示検出のための対数拡大のためのパラメトリックアプローチ
- Authors: Debasmita Pal, Redwan Sony, Arun Ross,
- Abstract要約: アイリスベースの生体認証システムは、敵がシステムを破壊するために物理的な人工物を提示するプレゼンテーションアタック(PA)に対して脆弱である。
本研究では,PAD分類器のクロスドメイン性能を向上させるために,ボナフィドイリドとPAの双方の対向トレーニングサンプルを用いる。
4つのデータセットとLivDet-Iris 2020データセットからなるLivDet-Iris 2017データベース上で実施された実験は、提案手法の有効性を実証する。
- 参考スコア(独自算出の注目度): 9.700630422387974
- License:
- Abstract: Iris-based biometric systems are vulnerable to presentation attacks (PAs), where adversaries present physical artifacts (e.g., printed iris images, textured contact lenses) to defeat the system. This has led to the development of various presentation attack detection (PAD) algorithms, which typically perform well in intra-domain settings. However, they often struggle to generalize effectively in cross-domain scenarios, where training and testing employ different sensors, PA instruments, and datasets. In this work, we use adversarial training samples of both bonafide irides and PAs to improve the cross-domain performance of a PAD classifier. The novelty of our approach lies in leveraging transformation parameters from classical data augmentation schemes (e.g., translation, rotation) to generate adversarial samples. We achieve this through a convolutional autoencoder, ADV-GEN, that inputs original training samples along with a set of geometric and photometric transformations. The transformation parameters act as regularization variables, guiding ADV-GEN to generate adversarial samples in a constrained search space. Experiments conducted on the LivDet-Iris 2017 database, comprising four datasets, and the LivDet-Iris 2020 dataset, demonstrate the efficacy of our proposed method. The code is available at https://github.com/iPRoBe-lab/ADV-GEN-IrisPAD.
- Abstract(参考訳): アイリスベースの生体認証システムは、敵が物理的アーティファクト(例えば、印刷されたアイリス画像、テクスチャ化されたコンタクトレンズ)を提示してシステムを破壊する、プレゼンテーションアタック(PA)に対して脆弱である。
これにより、様々なプレゼンテーションアタック検出(PAD)アルゴリズムが開発され、通常ドメイン内設定でよく機能する。
しかし彼らは、異なるセンサー、PA機器、データセットを使用したトレーニングとテストを行うクロスドメインシナリオにおいて、効果的に一般化するのに苦労することが多い。
本研究では,PAD分類器のクロスドメイン性能を向上させるために,ボナフィドイリドとPAの双方の対向トレーニングサンプルを用いる。
我々の手法の新規性は、古典的なデータ拡張スキーム(例えば、翻訳、回転)からの変換パラメータを活用して、敵対的なサンプルを生成することである。
これを実現するために、畳み込み型オートエンコーダADV-GENを用いて、幾何学的および測光的変換のセットとともに、元のトレーニングサンプルを入力する。
変換パラメータは正規化変数として機能し、ADV-GENを誘導して、制約された探索空間で逆サンプルを生成する。
4つのデータセットとLivDet-Iris 2020データセットからなるLivDet-Iris 2017データベース上で実施された実験は、提案手法の有効性を実証する。
コードはhttps://github.com/iPRoBe-lab/ADV-GEN-IrisPADで公開されている。
関連論文リスト
- On the Domain Generalizability of RF Fingerprints Through Multifractal Dimension Representation [6.05147450902935]
近年,深層学習によるRFデータ駆動型デバイス指紋認証が,セキュアなデバイス識別と認証を可能にする方法として浮上している。
従来のアプローチは、あるドメインで収集されたデータに基づいてトレーニングされたモデルが異なるドメインで収集されたデータ上でテストされた場合、そのドメイン適応の問題に一般的に影響を受けます。
本研究では,深部ニューラルネットワークに入力されるデータ表現として,マルチフラクタル解析と分散フラクタル次元軌跡(VFDT)を用いて,ドメインを一般化可能なデバイス指紋を抽出する。
論文 参考訳(メタデータ) (2024-02-15T16:07:35Z) - GE-AdvGAN: Improving the transferability of adversarial samples by
gradient editing-based adversarial generative model [69.71629949747884]
GAN(Generative Adversarial Networks)のような逆生成モデルは、様々な種類のデータを生成するために広く応用されている。
本研究では, GE-AdvGAN という新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-01-11T16:43:16Z) - S-Adapter: Generalizing Vision Transformer for Face Anti-Spoofing with Statistical Tokens [45.06704981913823]
Face Anti-Spoofing (FAS) は、スプーフされた顔を表示することによって、顔認識システムに侵入しようとする悪意のある試みを検出することを目的としている。
本稿では,局所的なトークンヒストグラムから局所的な識別や統計情報を収集する新しい統計適応器(S-Adapter)を提案する。
統計的トークンの一般化をさらに改善するために,新しいトークンスタイル正規化(TSR)を提案する。
提案したS-AdapterとTSRは、ゼロショットと少数ショットのクロスドメインテストの両方において、いくつかのベンチマークテストにおいて、最先端の手法よりも優れた、大きなメリットをもたらすことを示した。
論文 参考訳(メタデータ) (2023-09-07T22:36:22Z) - Adaptive Face Recognition Using Adversarial Information Network [57.29464116557734]
顔認識モデルは、トレーニングデータがテストデータと異なる場合、しばしば退化する。
本稿では,新たな敵情報ネットワーク(AIN)を提案する。
論文 参考訳(メタデータ) (2023-05-23T02:14:11Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - Seeking Similarities over Differences: Similarity-based Domain Alignment
for Adaptive Object Detection [86.98573522894961]
本研究では,Unsupervised Domain Adaptation (UDA) アルゴリズムが検出に使用するコンポーネントを一般化するフレームワークを提案する。
具体的には、最適な設計選択を生かした新しいUDAアルゴリズムViSGAを提案し、インスタンスレベルの特徴を集約する単純だが効果的な方法を提案する。
類似性に基づくグループ化と対角トレーニングの両方により、モデルでは、ゆるやかに整列されたドメインにまたがるすべてのインスタンスにマッチせざるを得ず、機能グループを粗い整列することに集中することが可能であることが示されています。
論文 参考訳(メタデータ) (2021-10-04T13:09:56Z) - Semi-Supervised Domain Adaptation with Prototypical Alignment and
Consistency Learning [86.6929930921905]
本稿では,いくつかの対象サンプルがラベル付けされていれば,ドメインシフトに対処するのにどの程度役立つか検討する。
ランドマークの可能性を最大限に追求するために、ランドマークから各クラスのターゲットプロトタイプを計算するプロトタイプアライメント(PA)モジュールを組み込んでいます。
具体的には,ラベル付き画像に深刻な摂動を生じさせ,PAを非自明にし,モデル一般化性を促進する。
論文 参考訳(メタデータ) (2021-04-19T08:46:08Z) - D-NetPAD: An Explainable and Interpretable Iris Presentation Attack
Detector [13.367903535457364]
虹彩認識システムは、相手が印刷された目、プラスチックの目、化粧品のコンタクトレンズなどのアーチファクトを提示する、プレゼンテーションアタック(PA)に対して脆弱である。
本稿では、DenseNet畳み込みニューラルネットワークアーキテクチャに基づくD-NetPADと呼ばれる有効で堅牢なアイリスPA検出器を提案する。
論文 参考訳(メタデータ) (2020-07-02T20:44:36Z) - Determining Sequence of Image Processing Technique (IPT) to Detect
Adversarial Attacks [4.431353523758957]
本稿では,悪意のある入力を検出するための画像処理手法(IPTS)を自動決定する進化的手法を提案する。
遺伝的アルゴリズム(GA)に基づく検出フレームワークを開発し、最適なIPTSを見つける。
テスト時に動的に選択されるIPTSのセットは、敵攻撃のフィルタとして機能する。
論文 参考訳(メタデータ) (2020-07-01T08:59:14Z) - Cross-domain Face Presentation Attack Detection via Multi-domain
Disentangled Representation Learning [109.42987031347582]
顔提示攻撃検出(PAD)は,顔認識システムにおいて緊急に解決すべき課題である。
クロスドメイン顔PADのための効率的な非交叉表現学習を提案する。
我々のアプローチは、不整合表現学習(DR-Net)とマルチドメイン学習(MD-Net)からなる。
論文 参考訳(メタデータ) (2020-04-04T15:45:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。