論文の概要: Robust Iris Presentation Attack Detection Fusing 2D and 3D Information
- arxiv url: http://arxiv.org/abs/2002.09137v2
- Date: Wed, 5 Aug 2020 17:38:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 01:27:46.450882
- Title: Robust Iris Presentation Attack Detection Fusing 2D and 3D Information
- Title(参考訳): 2次元・3次元情報を用いたロバストアイリス提示検出
- Authors: Zhaoyuan Fang, Adam Czajka, Kevin W. Bowyer
- Abstract要約: 本稿では,観測された虹彩の二次元特性と三次元特性を結合する手法を提案する。
バイナリ統計画像特徴量(BSIF)を用いた最先端手法により2次元アイリス特徴を抽出する
3Dアイリスの特徴は、2つの異なる角度に配置された近赤外線照明下で撮影された2つの画像のみから、測光ステレオ法により再構成される。
- 参考スコア(独自算出の注目度): 15.97343723521826
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Diversity and unpredictability of artifacts potentially presented to an iris
sensor calls for presentation attack detection methods that are agnostic to
specificity of presentation attack instruments. This paper proposes a method
that combines two-dimensional and three-dimensional properties of the observed
iris to address the problem of spoof detection in case when some properties of
artifacts are unknown. The 2D (textural) iris features are extracted by a
state-of-the-art method employing Binary Statistical Image Features (BSIF) and
an ensemble of classifiers is used to deliver 2D modality-related decision. The
3D (shape) iris features are reconstructed by a photometric stereo method from
only two images captured under near-infrared illumination placed at two
different angles, as in many current commercial iris recognition sensors. The
map of normal vectors is used to assess the convexity of the observed iris
surface. The combination of these two approaches has been applied to detect
whether a subject is wearing a textured contact lens to disguise their
identity. Extensive experiments with NDCLD'15 dataset, and a newly collected
NDIris3D dataset show that the proposed method is highly robust under various
open-set testing scenarios, and that it outperforms all available open-source
iris PAD methods tested in identical scenarios. The source code and the newly
prepared benchmark are made available along with this paper.
- Abstract(参考訳): アイリスセンサに提示されるアーティファクトの多様性と予測不可能性は、提示攻撃装置の特異性に依存しない提示攻撃検出方法を要求する。
本稿では,観測された虹彩の二次元特性と三次元特性を組み合わせて,人工物の性質が不明な場合にスプーフ検出の問題に対処する手法を提案する。
バイナリ統計画像特徴量(BSIF)を用いた最先端手法により2Dアイリス特徴を抽出し、分類器のアンサンブルを用いて2Dモダリティ関連判定を行う。
3次元虹彩の特徴は、多くの商用虹彩認識センサと同様に、近赤外照明下で撮影された2枚の画像から、測光ステレオ法によって再構成される。
通常のベクトルの写像は観測された虹彩面の凸性を評価するために用いられる。
これらの2つの手法を組み合わせることで、被験者がテクスチャ付きコンタクトレンズを装着して身元を偽装しているかを検出することができる。
ndcld'15データセットと新たに収集したndiris3dデータセットによる広範囲な実験により、提案手法は様々なオープンソーステストシナリオにおいて高い堅牢性を示し、同じシナリオでテストされたすべてのオープンソースのirispadメソッドを上回っている。
ソースコードと新しいベンチマークは、この論文とともに利用可能である。
関連論文リスト
- RAD: A Comprehensive Dataset for Benchmarking the Robustness of Image Anomaly Detection [4.231702796492545]
本研究では,自由なビュー,不均一な照度,ぼやけたコレクションを備えたロバスト異常検出データセットを提案する。
RADは、ワーキングプラットフォーム上の異物を異常として識別することを目的としている。
RADを用いた非教師ありゼロショット法11点の評価と解析を行った。
論文 参考訳(メタデータ) (2024-06-11T11:39:44Z) - OV-Uni3DETR: Towards Unified Open-Vocabulary 3D Object Detection via Cycle-Modality Propagation [67.56268991234371]
OV-Uni3DETRは、様々なシナリオにおける最先端のパフォーマンスを達成し、既存のメソッドを平均6%以上上回っている。
コードと事前訓練されたモデルは、後にリリースされる。
論文 参考訳(メタデータ) (2024-03-28T17:05:04Z) - Towards Unified 3D Object Detection via Algorithm and Data Unification [70.27631528933482]
我々は、最初の統一型マルチモーダル3Dオブジェクト検出ベンチマークMM-Omni3Dを構築し、上記のモノクロ検出器をマルチモーダルバージョンに拡張する。
設計した単分子・多モード検出器をそれぞれUniMODEとMM-UniMODEと命名した。
論文 参考訳(メタデータ) (2024-02-28T18:59:31Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - M2TR: Multi-modal Multi-scale Transformers for Deepfake Detection [74.19291916812921]
Deepfake技術によって生成された鍛造画像は、デジタル情報の信頼性に深刻な脅威をもたらします。
本稿では,Deepfake検出のための微妙な操作アーチファクトを異なるスケールで捉えることを目的とする。
最先端の顔スワッピングと顔の再現方法によって生成された4000のDeepFakeビデオで構成される高品質のDeepFakeデータセットSR-DFを紹介します。
論文 参考訳(メタデータ) (2021-04-20T05:43:44Z) - Viability of Optical Coherence Tomography for Iris Presentation Attack
Detection [13.367903535457364]
OCT画像は眼の断面図を提供するが、従来の画像は2次元虹彩のテクスチャ情報を提供する。
虹彩提示攻撃検出の有効なソリューションとしてOCTを実証する有望な結果が得られた。
論文 参考訳(メタデータ) (2020-10-22T18:00:51Z) - Cross-Modality 3D Object Detection [63.29935886648709]
本稿では,3次元物体検出のための新しい2段階多モード融合ネットワークを提案する。
アーキテクチャ全体が2段階の融合を促進する。
KITTIデータセットを用いた実験により,提案したマルチステージ融合により,ネットワークがより良い表現を学習できることが示唆された。
論文 参考訳(メタデータ) (2020-08-16T11:01:20Z) - Single-Shot 3D Detection of Vehicles from Monocular RGB Images via
Geometry Constrained Keypoints in Real-Time [6.82446891805815]
単眼RGB画像における車両検出のための新しい3次元単発物体検出法を提案する。
提案手法は,3次元空間への2次元検出を付加回帰および分類パラメータの予測により引き上げる。
KITTI 3D Object Detection と新しい nuScenes Object Detection ベンチマークを用いて,自律走行のための異なるデータセットに対するアプローチを検証し,その評価を行った。
論文 参考訳(メタデータ) (2020-06-23T15:10:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。