論文の概要: Iris Liveness Detection Competition (LivDet-Iris) -- The 2020 Edition
- arxiv url: http://arxiv.org/abs/2009.00749v1
- Date: Tue, 1 Sep 2020 23:43:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 01:37:51.718588
- Title: Iris Liveness Detection Competition (LivDet-Iris) -- The 2020 Edition
- Title(参考訳): iris liveness detection competition (livdet-iris) - 2020年版
- Authors: Priyanka Das, Joseph McGrath, Zhaoyuan Fang, Aidan Boyd, Ganghee Jang,
Amir Mohammadi, Sandip Purnapatra, David Yambay, S\'ebastien Marcel, Mateusz
Trokielewicz, Piotr Maciejewicz, Kevin Bowyer, Adam Czajka, Stephanie
Schuckers, Juan Tapia, Sebastian Gonzalez, Meiling Fang, Naser Damer, Fadi
Boutros, Arjan Kuijper, Renu Sharma, Cunjian Chen, Arun Ross
- Abstract要約: 本稿では,第4回大会であるLivDet-Iris 2020の結果を紹介する。
APCERは5種類の攻撃に対して平均59.10%、BPCERは0.46%であった。
- 参考スコア(独自算出の注目度): 23.537039454986875
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Launched in 2013, LivDet-Iris is an international competition series open to
academia and industry with the aim to assess and report advances in iris
Presentation Attack Detection (PAD). This paper presents results from the
fourth competition of the series: LivDet-Iris 2020. This year's competition
introduced several novel elements: (a) incorporated new types of attacks
(samples displayed on a screen, cadaver eyes and prosthetic eyes), (b)
initiated LivDet-Iris as an on-going effort, with a testing protocol available
now to everyone via the Biometrics Evaluation and Testing
(BEAT)(https://www.idiap.ch/software/beat/) open-source platform to facilitate
reproducibility and benchmarking of new algorithms continuously, and (c)
performance comparison of the submitted entries with three baseline methods
(offered by the University of Notre Dame and Michigan State University), and
three open-source iris PAD methods available in the public domain. The best
performing entry to the competition reported a weighted average APCER of
59.10\% and a BPCER of 0.46\% over all five attack types. This paper serves as
the latest evaluation of iris PAD on a large spectrum of presentation attack
instruments.
- Abstract(参考訳): 2013年にスタートしたlivdet-irisは、irisプレゼンテーションアタック検出(pad)の進歩を評価し報告することを目的として、学界と業界に開放された国際コンペティションシリーズである。
本稿では,第4回大会であるLivDet-Iris 2020の結果を紹介する。
今年のコンペティションではいくつかの新しい要素が紹介された。
(a)新しいタイプの攻撃(画面に表示されたサンプル、キャダバー目、義肢目)を組み込んだもの
b) livdet-iris は現在,バイオメトリックス評価およびテスト (beat)(https://www.idiap.ch/software/beat/) による,新たなアルゴリズムの再現性とベンチマークを継続的に行うためのオープンソースプラットフォームを通じて,誰でも利用可能なテストプロトコルである。
(c) 提出されたエントリと3つのベースラインメソッド(ノートルダム大学とミシガン州立大学が共同開発した)と、パブリックドメインで利用可能な3つのオープンソースアイリスPADメソッドのパフォーマンス比較。
競技の最高成績は、重量平均apcerが59.10\%、bpcerが0.46\%と5つの攻撃タイプで報告された。
本稿では,多数のプレゼンテーションアタック機器を用いたアイリスパッドの最近の評価について述べる。
関連論文リスト
- Constrained C-Test Generation via Mixed-Integer Programming [55.28927994487036]
本研究は,単語の最後の部分のみをギャップに変換する,クローズテスト(ギャップ充足運動)の形式であるC-テストを生成する新しい手法を提案する。
局所最適解を実現するために, ギャップサイズやギャップ配置の変化のみを考慮する従来の研究とは対照的に, 混合整数プログラミング(MIP)アプローチを提案する。
当社のコード、モデル、収集したデータは32の英語のC-Testで、それぞれ20のギャップ(3,200の個別のギャップ応答)をオープンソースライセンスで公開しています。
論文 参考訳(メタデータ) (2024-04-12T21:35:21Z) - Iris Liveness Detection Competition (LivDet-Iris) -- The 2023 Edition [19.631785123966992]
本稿では,2023年版のアイリス提示攻撃検出(PAD)コンペの結果について述べる。
第5回大会の新たな要素は(1)プレゼンテーション攻撃装置(PAI)のカテゴリとしてのGAN生成虹彩画像である。
精度は、異なるPAIタイプで分析され、人間の精度と比較される。
論文 参考訳(メタデータ) (2023-10-06T19:07:05Z) - Liveness Detection Competition -- Noncontact-based Fingerprint
Algorithms and Systems (LivDet-2023 Noncontact Fingerprint) [12.05273326660349]
LivDet-2023 非接触フィンガープリントは、アルゴリズムとシステムのための非接触指紋ベースのPADコンペティションの最初のエディションである。
このコンペティションは、非接触型指紋PADの重要なベンチマークとして機能する。
勝利したアルゴリズムはAPCERが11.35%、BPCERが0.62%に達した。
論文 参考訳(メタデータ) (2023-10-01T12:59:30Z) - Why is the winner the best? [78.74409216961632]
IEEE I SBI 2021 と MICCAI 2021 の範囲で実施した80のコンペすべてを対象に,マルチセンターで実施した。
勝者となるソリューションとしては、マルチタスク学習(63%)、マルチステージパイプライン(61%)、拡大(100%)、画像前処理(97%)、データキュレーション(79%)、後処理(66%)などがある。
高ランクのチームでは、メソッド設計におけるメトリクスの反映と、障害ケースの分析と処理に焦点を当てた2つの中核的な開発戦略が目立った。
論文 参考訳(メタデータ) (2023-03-30T21:41:42Z) - State Of The Art In Open-Set Iris Presentation Attack Detection [4.843820624525483]
本稿では,オープンセットアイリス提示攻撃検出(PAD)における最先端技術を理解し,拡張するためのコントリビューションを提供する。
この問題で利用可能な最大の画像データセットをキュレートし、以前様々なグループがリリースした26のベンチマークから抽出した。
クローズドセット評価における最良のアルゴリズムでさえ、オープンセットシナリオにおいて複数の攻撃タイプに対して破滅的な障害を示すことを示す。
論文 参考訳(メタデータ) (2022-08-22T19:40:59Z) - Review of the Fingerprint Liveness Detection (LivDet) competition
series: from 2009 to 2021 [3.0828074702828623]
国際フィンガープリントライブネス検出コンペティション(LivDet)は2009年から年2回実施されている。
本稿では、2009年から2021年までのLivDetエディションをレビューし、その進化を長年にわたって指摘している。
論文 参考訳(メタデータ) (2022-02-15T09:14:08Z) - Review of Face Presentation Attack Detection Competitions [48.051950472633685]
顔提示攻撃検出(PAD)は、スプーフィングの脆弱性が広く認識されて以来、注目されている。
モノダル・マルチモーダル・フェイス・アンチ・スプーフィングにおける芸術の状況は8つの国際競技会で評価されている。
論文 参考訳(メタデータ) (2021-12-21T15:20:10Z) - Adversarial Attacks on ML Defense Models Competition [82.37504118766452]
清華大学のTSAILグループとAlibaba Securityグループがこの競争を組織した。
この競争の目的は、敵の堅牢性を評価するために、新しい攻撃アルゴリズムを動機付けることである。
論文 参考訳(メタデータ) (2021-10-15T12:12:41Z) - Iris Liveness Detection using a Cascade of Dedicated Deep Learning
Networks [11.617910256604143]
プレゼンテーション攻撃は、印刷画像、人工眼、テクスチャ化されたコンタクトレンズなどを用いて生体認証システムを回避することができる。
本稿では, ボナファイドアイリス画像とプレゼンテーションアタック画像とを分類するために, ゼロから訓練したMobileNetV2修正に基づくシリアルアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-05-28T17:37:11Z) - OpenHoldem: An Open Toolkit for Large-Scale Imperfect-Information Game
Research [82.09426894653237]
OpenHoldemは、NLTHを用いた大規模不完全情報ゲーム研究のための統合ツールキットです。
1)異なるNLTH AIを徹底的に評価するための標準化された評価プロトコル、2)NLTH AIのための3つの公的に利用可能な強力なベースライン、3)公開NLTH AI評価のための使いやすいAPIを備えたオンラインテストプラットフォーム。
論文 参考訳(メタデータ) (2020-12-11T07:24:08Z) - Analysing Affective Behavior in the First ABAW 2020 Competition [49.90617840789334]
ABAW(Affective Behavior Analysis in-the-Wild) 2020コンペティションは、3つの主要な行動タスクの自動分析を目的とした最初のコンペティションである。
アルゼンチンのブエノスアイレスで2020年5月に開催されたIEEE Face and Gesture Recognitionと共同で開催されるこのコンペティションについて説明する。
評価指標を概説し,ベースラインシステムとトップ3の実施するチームの方法論をチャレンジ毎に提示し,その結果を最終的に提示する。
論文 参考訳(メタデータ) (2020-01-30T15:41:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。