論文の概要: Iris Liveness Detection Competition (LivDet-Iris) -- The 2023 Edition
- arxiv url: http://arxiv.org/abs/2310.04541v1
- Date: Fri, 6 Oct 2023 19:07:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-12 17:50:18.032315
- Title: Iris Liveness Detection Competition (LivDet-Iris) -- The 2023 Edition
- Title(参考訳): Iris Liveness Detection Competition (LivDet-Iris) -- 2023エディション
- Authors: Patrick Tinsley, Sandip Purnapatra, Mahsa Mitcheff, Aidan Boyd, Colton
Crum, Kevin Bowyer, Patrick Flynn, Stephanie Schuckers, Adam Czajka, Meiling
Fang, Naser Damer, Xingyu Liu, Caiyong Wang, Xianyun Sun, Zhaohua Chang,
Xinyue Li, Guangzhe Zhao, Juan Tapia, Christoph Busch, Carlos Aravena, Daniel
Schulz
- Abstract要約: 本稿では,2023年版のアイリス提示攻撃検出(PAD)コンペの結果について述べる。
第5回大会の新たな要素は(1)プレゼンテーション攻撃装置(PAI)のカテゴリとしてのGAN生成虹彩画像である。
精度は、異なるPAIタイプで分析され、人間の精度と比較される。
- 参考スコア(独自算出の注目度): 19.631785123966992
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper describes the results of the 2023 edition of the ''LivDet'' series
of iris presentation attack detection (PAD) competitions. New elements in this
fifth competition include (1) GAN-generated iris images as a category of
presentation attack instruments (PAI), and (2) an evaluation of human accuracy
at detecting PAI as a reference benchmark. Clarkson University and the
University of Notre Dame contributed image datasets for the competition,
composed of samples representing seven different PAI categories, as well as
baseline PAD algorithms. Fraunhofer IGD, Beijing University of Civil
Engineering and Architecture, and Hochschule Darmstadt contributed results for
a total of eight PAD algorithms to the competition. Accuracy results are
analyzed by different PAI types, and compared to human accuracy. Overall, the
Fraunhofer IGD algorithm, using an attention-based pixel-wise binary
supervision network, showed the best-weighted accuracy results (average
classification error rate of 37.31%), while the Beijing University of Civil
Engineering and Architecture's algorithm won when equal weights for each PAI
were given (average classification rate of 22.15%). These results suggest that
iris PAD is still a challenging problem.
- Abstract(参考訳): 本稿では,'livdet' シリーズの2023年版である iris presentation attack detection (pad) の結果について述べる。
第5回大会では,(1)提示攻撃装置(PAI)のカテゴリとしてのGAN生成虹彩画像,(2)基準ベンチマークとしてのPAI検出における人間の精度の評価が新たに発表された。
クラークソン大学とノートルダム大学は7つの異なるPAIカテゴリを表すサンプルとベースラインのPADアルゴリズムからなる画像データセットをコンペティションのために提供した。
fraunhofer igd, beijing university of civil engineering and architecture, and hochschule darmstadtの計8つのアルゴリズムがコンペティションに寄与した。
精度は、異なるPAIタイプで分析され、人間の精度と比較される。
全体として、Fraunhofer IGDアルゴリズムは、注目に基づくピクセル単位のバイナリ監視ネットワークを使用して、最も重み付けされた精度(平均分類誤差率37.31%)を示し、北京土木建築大学のアルゴリズムは、各PAIに等しい重みが与えられたときに勝利した(平均分類率22.15%)。
これらの結果は、アイリスPADは依然として困難な問題であることを示している。
関連論文リスト
- AIGIQA-20K: A Large Database for AI-Generated Image Quality Assessment [54.93996119324928]
AIGIQA-20Kとして知られる2万のAIGIと420,000の主観評価を備えた、これまでで最大のAIGI主観的品質データベースを作成します。
このデータベース上でベンチマーク実験を行い、16の主流AIGI品質モデルと人間の知覚との対応性を評価する。
論文 参考訳(メタデータ) (2024-04-04T12:12:24Z) - Detecting and recognizing characters in Greek papyri with YOLOv8, DeiT
and SimCLR [9.7902367664742]
本稿は、ギリシャ文字の検出・認識に関するICDAR 2023コンペティションへの参加について論じる。
我々は、YOLOv8モデルのアンサンブルを用いて個々の文字を検出し、分類し、2つの異なるアプローチを用いて文字予測を精査した。
平均精度(mAP)は51.4%であり,mAPは42.2%,検出精度(mAP)は51.4%であった。
論文 参考訳(メタデータ) (2024-01-23T06:08:00Z) - PSCR: Patches Sampling-based Contrastive Regression for AIGC Image
Quality Assessment [1.1744028458220428]
本稿では,様々な画像の差を利用した表現空間の学習のためのコントラスト回帰フレームワークを提案する。
我々は、AGIQA-1K、AGIQA-3K、AIGCIQA2023を含む3つの主要なAIGCIQAデータベースについて広範な実験を行った。
その結果,提案したPSCRフレームワークの導入により,モデル性能が大幅に向上した。
論文 参考訳(メタデータ) (2023-12-10T14:18:53Z) - Machine Learning-Assisted Pattern Recognition Algorithms for Estimating
Ultimate Tensile Strength in Fused Deposition Modeled Polylactic Acid
Specimens [0.0]
混合沈着モデル(FDM)プロセスを用いて作製したポリ乳酸(PLA)試料の最大引張強度(UTS)を推定するための教師付き機械学習アルゴリズムの適用について検討した。
主な目的は、ロジスティック分類(Logistic Classification)、グラディエントブースティング分類(Gradient Boosting Classification)、決定木(Decision Tree)、K-Nearest Neighbor(K-Nearest Neighbor)の4つの異なる分類アルゴリズムの精度と有効性を評価することである。
その結果、決定木とK-Nearest NeighborアルゴリズムはともにF1スコア0.71を達成したが、KNNアルゴリズムはAUC(Area Under the Curve)スコア0.79を達成し、他のアルゴリズムを上回った。
論文 参考訳(メタデータ) (2023-07-13T11:10:22Z) - MIPI 2023 Challenge on RGBW Remosaic: Methods and Results [88.53703757370016]
本稿は、MIPI 2023上でのRGBW Joint Remosaic and Denoiseのトラックを要約し、レビューする。
合計81人の参加者が登録され、4チームが最終テストフェーズで結果を提出した。
本論文では,本課題で開発された上位3モデルについて詳述する。
論文 参考訳(メタデータ) (2023-04-20T05:12:42Z) - MIPI 2023 Challenge on RGBW Fusion: Methods and Results [88.53703757370016]
本稿は、MIPI 2023上でのRGBW Joint Fusion and Denoiseのトラックを要約し、レビューする。
合計69人の参加者が登録され、4チームが最終テストフェーズで結果を提出した。
本論文では,本課題で開発された上位3モデルについて詳述する。
論文 参考訳(メタデータ) (2023-04-20T05:02:03Z) - Conformer and Blind Noisy Students for Improved Image Quality Assessment [80.57006406834466]
知覚品質評価(IQA)のための学習ベースアプローチは、通常、知覚品質を正確に測定するために歪んだ画像と参照画像の両方を必要とする。
本研究では,変換器を用いた全参照IQAモデルの性能について検討する。
また,全教師モデルから盲人学生モデルへの半教師付き知識蒸留に基づくIQAの手法を提案する。
論文 参考訳(メタデータ) (2022-04-27T10:21:08Z) - High performing ensemble of convolutional neural networks for insect
pest image detection [124.23179560022761]
害虫の寄生は作物の被害の主な原因であり、世界中の収入を失った。
我々は異なるトポロジに基づいてCNNのアンサンブルを生成する。
ディープネットワーク最適化のための2つの新しいAdamアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-08-28T00:49:11Z) - 3D High-Fidelity Mask Face Presentation Attack Detection Challenge [79.2407530090659]
大規模なHigh-Fidelity Maskデータセット、すなわちCASIA-SURF HiFiMaskが収集された。
我々は,3次元マスクによる攻撃検出の研究を促進するために,3次元高忠実マスク顔提示検出チャレンジを組織した。
論文 参考訳(メタデータ) (2021-08-16T08:40:12Z) - Synthetic Periocular Iris PAI from a Small Set of Near-Infrared-Images [10.337140740056725]
本稿では、4つの最先端GANアルゴリズムを用いた新しいPAI合成(SPI-PAI)を提案する。
LivDet-2020コンペティションで報告された最高のPADアルゴリズムは、合成PAIを用いてテストされた。
以上の結果から, 合成画像がばかげた提示攻撃検出アルゴリズムの実現可能性を示した。
論文 参考訳(メタデータ) (2021-07-26T08:07:49Z) - Iris Liveness Detection using a Cascade of Dedicated Deep Learning
Networks [11.617910256604143]
プレゼンテーション攻撃は、印刷画像、人工眼、テクスチャ化されたコンタクトレンズなどを用いて生体認証システムを回避することができる。
本稿では, ボナファイドアイリス画像とプレゼンテーションアタック画像とを分類するために, ゼロから訓練したMobileNetV2修正に基づくシリアルアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-05-28T17:37:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。