論文の概要: MENTOR: Human Perception-Guided Pretraining for Iris Presentation
Detection
- arxiv url: http://arxiv.org/abs/2310.19545v1
- Date: Mon, 30 Oct 2023 13:50:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 20:08:48.348885
- Title: MENTOR: Human Perception-Guided Pretraining for Iris Presentation
Detection
- Title(参考訳): MENTOR:アイリス提示検出のための人間の知覚誘導事前訓練
- Authors: Colton R. Crum, Adam Czajka
- Abstract要約: MENTOR(huMan pErceptioN-guided preTraining fOr iris pResentation attack Detection)を紹介する。
我々はオートエンコーダを訓練し、入力虹彩画像から人間の唾液マップを学習する。
トレーニングされたオートエンコーダは, (a) アイリス提示攻撃検知器のトレーニング済みバックボーンとして, (b) 未知データ上の有意な特徴のアノテータとして, および (b) の2つの異なる方法で利用した。
- 参考スコア(独自算出の注目度): 5.596752018167751
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Incorporating human salience into the training of CNNs has boosted
performance in difficult tasks such as biometric presentation attack detection.
However, collecting human annotations is a laborious task, not to mention the
questions of how and where (in the model architecture) to efficiently
incorporate this information into model's training once annotations are
obtained. In this paper, we introduce MENTOR (huMan pErceptioN-guided
preTraining fOr iris pResentation attack detection), which addresses both of
these issues through two unique rounds of training. First, we train an
autoencoder to learn human saliency maps given an input iris image (both real
and fake examples). Once this representation is learned, we utilize the trained
autoencoder in two different ways: (a) as a pre-trained backbone for an iris
presentation attack detector, and (b) as a human-inspired annotator of salient
features on unknown data. We show that MENTOR's benefits are threefold: (a)
significant boost in iris PAD performance when using the human
perception-trained encoder's weights compared to general-purpose weights (e.g.
ImageNet-sourced, or random), (b) capability of generating infinite number of
human-like saliency maps for unseen iris PAD samples to be used in any human
saliency-guided training paradigm, and (c) increase in efficiency of iris PAD
model training. Sources codes and weights are offered along with the paper.
- Abstract(参考訳): CNNのトレーニングに人間のサリエンスを取り入れることで、生体情報提示攻撃検出などの困難なタスクのパフォーマンスが向上した。
しかし、アノテーションの収集は面倒な作業であり、アノテーションが手に入ると、(モデルアーキテクチャにおいて)この情報をモデルのトレーニングに効率的に組み込む方法や方法に関する問題には言及しない。
本稿では、これらの問題を2回の訓練で解決するMENTOR(huMan pErceptioN-guided preTraining fOr iris pResentation attack Detection)を紹介する。
まず、入力虹彩画像(実例と偽例の両方)から人間の唾液マップを学習するためにオートエンコーダを訓練する。
この表現が学習されると、トレーニングされたautoencoderを2つの方法で利用します。
(a)アイリス提示攻撃検知器の事前訓練されたバックボーンとして、及び
(b) 未知データ上の有能な特徴の人為的なアノテータである。
MENTORの利点は3つあります。
(a)一般用重量(例えば、画像ネットソース、ランダム)と比較して、人間の知覚訓練エンコーダの重量を使用する場合のアイリスPAD性能の顕著な向上
b) 未確認アイリスPADサンプルに対する無数のヒト様唾液マップを作成する能力、及び、ヒト唾液誘導訓練パラダイムにおける使用方法
(c)虹彩PADモデルトレーニングの効率性の向上。
資料のコードと重みが同紙とともに提供される。
関連論文リスト
- Effort: Efficient Orthogonal Modeling for Generalizable AI-Generated Image Detection [66.16595174895802]
既存のAI生成画像(AIGI)検出手法は、しばしば限定的な一般化性能に悩まされる。
本稿では、AIGI検出において、これまで見過ごされてきた重要な非対称性現象を同定する。
論文 参考訳(メタデータ) (2024-11-23T19:10:32Z) - Training Better Deep Learning Models Using Human Saliency [11.295653130022156]
本研究では、画像の正常領域に関する人間の判断が、ディープ畳み込みニューラルネットワーク(DCNN)トレーニングにどのように導入できるかを考察する。
本稿では,ConveYs Brain Oversight to raise Generalization (CYBORG) における損失関数の新たな構成要素を提案する。
論文 参考訳(メタデータ) (2024-10-21T16:52:44Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - EfficientTrain: Exploring Generalized Curriculum Learning for Training
Visual Backbones [80.662250618795]
本稿では視覚バックボーン(例えば視覚変換器)の効率的なトレーニングのための新しいカリキュラム学習手法を提案する。
オフザシェルフ方式として、様々な人気モデルのウォールタイムトレーニングコストを、精度を犠牲にすることなく、ImageNet-1K/22Kで1.5倍に削減する。
論文 参考訳(メタデータ) (2022-11-17T17:38:55Z) - Reconciliation of Pre-trained Models and Prototypical Neural Networks in
Few-shot Named Entity Recognition [35.34238362639678]
本研究では,このようなミスマッチを経験的・理論的根拠と整合させる一線符号正規化法を提案する。
我々の研究は、数発のエンティティ認識における一般的な問題に対処するための分析的な視点も提供します。
論文 参考訳(メタデータ) (2022-11-07T02:33:45Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - With Greater Distance Comes Worse Performance: On the Perspective of
Layer Utilization and Model Generalization [3.6321778403619285]
ディープニューラルネットワークの一般化は、マシンラーニングにおける主要なオープンな問題の1つだ。
初期のレイヤは一般的に、トレーニングデータとテストデータの両方のパフォーマンスに関する表現を学びます。
より深いレイヤは、トレーニングのリスクを最小限に抑え、テストや不正なラベル付けされたデータとうまく連携できない。
論文 参考訳(メタデータ) (2022-01-28T05:26:32Z) - CYBORG: Blending Human Saliency Into the Loss Improves Deep Learning [5.092711491848192]
本稿では,脳の一般性を高めるための初となるトレーニング戦略を提案する。
新しいトレーニングアプローチでは、人間の注釈付き唾液マップをCYBORG損失関数に組み込む。
合成顔検出作業の結果,CYBORG損失は,GAN(Generative Adversarial Networks)6つの顔画像から生成した複数の分類ネットワークアーキテクチャから生成した未知のサンプルに対して,顕著な性能向上をもたらすことが示された。
論文 参考訳(メタデータ) (2021-12-01T18:04:15Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z) - Feature Purification: How Adversarial Training Performs Robust Deep
Learning [66.05472746340142]
ニューラルネットワークのトレーニングプロセス中に隠れた重みに、特定の小さな密度の混合物が蓄積されることが、敵の例の存在の原因の1つであることを示す。
この原理を説明するために、CIFAR-10データセットの両実験と、ある自然な分類タスクに対して、ランダムな勾配勾配勾配を用いた2層ニューラルネットワークをトレーニングすることを証明する理論的結果を示す。
論文 参考訳(メタデータ) (2020-05-20T16:56:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。