論文の概要: Towards Iris Presentation Attack Detection with Foundation Models
- arxiv url: http://arxiv.org/abs/2501.06312v1
- Date: Fri, 10 Jan 2025 19:26:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-14 14:24:45.951323
- Title: Towards Iris Presentation Attack Detection with Foundation Models
- Title(参考訳): 基礎モデルを用いたアイリス提示攻撃検出に向けて
- Authors: Juan E. Tapia, Lázaro Janier González-Soler, Christoph Busch,
- Abstract要約: 本研究では,2つの基盤モデルであるDinoV2とVisualOpenClipに基づくアイリスPADアプローチについて検討する。
その結果、頭として小さなニューラルネットワークを用いた微調整予測は、ディープラーニングアプローチに基づく最先端のパフォーマンスを超越していることがわかった。
- 参考スコア(独自算出の注目度): 7.287930923353593
- License:
- Abstract: Foundation models are becoming increasingly popular due to their strong generalization capabilities resulting from being trained on huge datasets. These generalization capabilities are attractive in areas such as NIR Iris Presentation Attack Detection (PAD), in which databases are limited in the number of subjects and diversity of attack instruments, and there is no correspondence between the bona fide and attack images because, most of the time, they do not belong to the same subjects. This work explores an iris PAD approach based on two foundation models, DinoV2 and VisualOpenClip. The results show that fine-tuning prediction with a small neural network as head overpasses the state-of-the-art performance based on deep learning approaches. However, systems trained from scratch have still reached better results if bona fide and attack images are available.
- Abstract(参考訳): 巨大なデータセットでトレーニングされた結果、強力な一般化能力によって、ファンデーションモデルはますます人気が高まっている。
NIRアイリス提示検出(PAD)のような,攻撃機器の被写体数や多様性に制限がある領域において,これらの一般化能力は魅力的なものであり,ボナフィドと攻撃画像の対応性はない。
本研究では,2つの基盤モデルであるDinoV2とVisualOpenClipに基づくアイリスPADアプローチについて検討する。
その結果、頭として小さなニューラルネットワークを用いた微調整予測は、ディープラーニングアプローチに基づく最先端のパフォーマンスを超越していることがわかった。
しかし、ボナフィドとアタックイメージが利用可能であれば、スクラッチからトレーニングされたシステムは、依然としてより良い結果に到達している。
関連論文リスト
- Few Edges Are Enough: Few-Shot Network Attack Detection with Graph Neural Networks [0.0]
本稿では,偽陽性異常と実際の攻撃をよりよく区別するために,Few Edges Are Enough (FEAE)を提案する。
FEAEは2つのよく知られたネットワークデータセット上での競合性能を達成する。
論文 参考訳(メタデータ) (2025-01-28T14:07:52Z) - FoundPAD: Foundation Models Reloaded for Face Presentation Attack Detection [8.605999078286567]
プレゼンテーションアタック検出(PAD)アルゴリズムは、目に見えない領域に一般化する必要がある。
ファンデーションモデル(FM)は、広範囲なデータセットで事前訓練され、目に見えない領域に一般化する際、顕著な結果が得られる。
FoundPADの実装はhttps://github.com/gurayozgur/FoundPADで公開しています。
論文 参考訳(メタデータ) (2025-01-06T10:14:52Z) - Raising the Bar of AI-generated Image Detection with CLIP [50.345365081177555]
本研究の目的は、AI生成画像の普遍的検出のための事前学習された視覚言語モデル(VLM)の可能性を探ることである。
我々は,CLIP機能に基づく軽量な検出戦略を開発し,その性能を様々な難易度シナリオで検証する。
論文 参考訳(メタデータ) (2023-11-30T21:11:20Z) - Rethinking Bias Mitigation: Fairer Architectures Make for Fairer Face
Recognition [107.58227666024791]
顔認識システムは、法執行を含む安全クリティカルなアプリケーションに広くデプロイされている。
彼らは、性別や人種など、様々な社会的デデノグラフィー次元に偏見を示す。
バイアス軽減に関するこれまでの研究は、主にトレーニングデータの事前処理に重点を置いていた。
論文 参考訳(メタデータ) (2022-10-18T15:46:05Z) - Myope Models -- Are face presentation attack detection models
short-sighted? [3.4376560669160394]
プレゼンテーション攻撃は生体認証システムへの繰り返しの脅威であり、インポスタはこれらのシステムをバイパスしようとする。
本研究は,作物と無作為の顔提示攻撃検出(PAD)モデルの比較研究である。
その結果,画像に背景が存在する場合,その性能は一貫して良好であることがわかった。
論文 参考訳(メタデータ) (2021-11-22T11:28:44Z) - Multi-Branch Deep Radial Basis Function Networks for Facial Emotion
Recognition [80.35852245488043]
放射状基底関数(RBF)ユニットによって形成された複数の分岐で拡張されたCNNベースのアーキテクチャを提案する。
RBFユニットは、中間表現を用いて類似のインスタンスで共有される局所パターンをキャプチャする。
提案手法は,提案手法の競争力を高めるためのローカル情報の導入であることを示す。
論文 参考訳(メタデータ) (2021-09-07T21:05:56Z) - Explainable Adversarial Attacks in Deep Neural Networks Using Activation
Profiles [69.9674326582747]
本稿では,敵対的事例に基づくニューラルネットワークモデルを検討するためのビジュアルフレームワークを提案する。
これらの要素を観察することで、モデル内の悪用領域を素早く特定できることを示す。
論文 参考訳(メタデータ) (2021-03-18T13:04:21Z) - MixNet for Generalized Face Presentation Attack Detection [63.35297510471997]
我々は、プレゼンテーションアタックを検出するための、TextitMixNetと呼ばれるディープラーニングベースのネットワークを提案している。
提案アルゴリズムは最先端の畳み込みニューラルネットワークアーキテクチャを利用して,各攻撃カテゴリの特徴マッピングを学習する。
論文 参考訳(メタデータ) (2020-10-25T23:01:13Z) - Learning One Class Representations for Face Presentation Attack
Detection using Multi-channel Convolutional Neural Networks [7.665392786787577]
プレゼンテーションアタック検出(PAD)メソッドは、目に見えないアタックを一般化するのに失敗することが多い。
マルチチャネル畳み込みニューラルネットワーク(MCCNN)で学習する一クラス分類器を用いたPADのための新しいフレームワークを提案する。
新たな損失関数が導入されたため、ネットワークは攻撃の表現から遠ざかって、ボナフィドクラスのコンパクトな埋め込みを学習せざるを得なくなった。
提案フレームワークは,ボナフィドおよび(既知の)攻撃クラスから堅牢なPADシステムを学習するための新しいアプローチを導入する。
論文 参考訳(メタデータ) (2020-07-22T14:19:33Z) - Deep convolutional neural networks for face and iris presentation attack
detection: Survey and case study [0.5801044612920815]
顔PADのクロスデータセット評価は,術式よりも一般化が良好であった。
顔と虹彩の両方の攻撃を検出するために訓練された1つのディープネットワークを提案する。
論文 参考訳(メタデータ) (2020-04-25T02:06:19Z) - BP-DIP: A Backprojection based Deep Image Prior [49.375539602228415]
画像復元手法として, (i)Deep Image Prior (DIP) と (ii) バックプロジェクション (BP) の2つの手法を提案する。
提案手法はBP-DIP(BP-DIP)と呼ばれ,高いPSNR値とより優れた推論実行時間を持つ通常のDIPよりも優れた性能を示す。
論文 参考訳(メタデータ) (2020-03-11T17:09:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。