論文の概要: MENTOR: Human Perception-Guided Pretraining for Iris Presentation
Detection
- arxiv url: http://arxiv.org/abs/2310.19545v1
- Date: Mon, 30 Oct 2023 13:50:44 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 20:08:48.348885
- Title: MENTOR: Human Perception-Guided Pretraining for Iris Presentation
Detection
- Title(参考訳): MENTOR:アイリス提示検出のための人間の知覚誘導事前訓練
- Authors: Colton R. Crum, Adam Czajka
- Abstract要約: MENTOR(huMan pErceptioN-guided preTraining fOr iris pResentation attack Detection)を紹介する。
我々はオートエンコーダを訓練し、入力虹彩画像から人間の唾液マップを学習する。
トレーニングされたオートエンコーダは, (a) アイリス提示攻撃検知器のトレーニング済みバックボーンとして, (b) 未知データ上の有意な特徴のアノテータとして, および (b) の2つの異なる方法で利用した。
- 参考スコア(独自算出の注目度): 5.596752018167751
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Incorporating human salience into the training of CNNs has boosted
performance in difficult tasks such as biometric presentation attack detection.
However, collecting human annotations is a laborious task, not to mention the
questions of how and where (in the model architecture) to efficiently
incorporate this information into model's training once annotations are
obtained. In this paper, we introduce MENTOR (huMan pErceptioN-guided
preTraining fOr iris pResentation attack detection), which addresses both of
these issues through two unique rounds of training. First, we train an
autoencoder to learn human saliency maps given an input iris image (both real
and fake examples). Once this representation is learned, we utilize the trained
autoencoder in two different ways: (a) as a pre-trained backbone for an iris
presentation attack detector, and (b) as a human-inspired annotator of salient
features on unknown data. We show that MENTOR's benefits are threefold: (a)
significant boost in iris PAD performance when using the human
perception-trained encoder's weights compared to general-purpose weights (e.g.
ImageNet-sourced, or random), (b) capability of generating infinite number of
human-like saliency maps for unseen iris PAD samples to be used in any human
saliency-guided training paradigm, and (c) increase in efficiency of iris PAD
model training. Sources codes and weights are offered along with the paper.
- Abstract(参考訳): CNNのトレーニングに人間のサリエンスを取り入れることで、生体情報提示攻撃検出などの困難なタスクのパフォーマンスが向上した。
しかし、アノテーションの収集は面倒な作業であり、アノテーションが手に入ると、(モデルアーキテクチャにおいて)この情報をモデルのトレーニングに効率的に組み込む方法や方法に関する問題には言及しない。
本稿では、これらの問題を2回の訓練で解決するMENTOR(huMan pErceptioN-guided preTraining fOr iris pResentation attack Detection)を紹介する。
まず、入力虹彩画像(実例と偽例の両方)から人間の唾液マップを学習するためにオートエンコーダを訓練する。
この表現が学習されると、トレーニングされたautoencoderを2つの方法で利用します。
(a)アイリス提示攻撃検知器の事前訓練されたバックボーンとして、及び
(b) 未知データ上の有能な特徴の人為的なアノテータである。
MENTORの利点は3つあります。
(a)一般用重量(例えば、画像ネットソース、ランダム)と比較して、人間の知覚訓練エンコーダの重量を使用する場合のアイリスPAD性能の顕著な向上
b) 未確認アイリスPADサンプルに対する無数のヒト様唾液マップを作成する能力、及び、ヒト唾液誘導訓練パラダイムにおける使用方法
(c)虹彩PADモデルトレーニングの効率性の向上。
資料のコードと重みが同紙とともに提供される。
関連論文リスト
- L-WISE: Boosting Human Image Category Learning Through Model-Based Image Selection And Enhancement [12.524893323311108]
本研究では,人間の視覚的学習を,テスト時に人間の分類精度を向上させる方法で強化することを提案する。
学習強化手法は, モデル推定による認識困難度に基づく画像選択と, (ii) 初心者の認識を支援する画像摂動を用いて構成する。
我々の知る限りでは、ANNがカテゴリー特化機能を強化して人間の視覚学習能力を高めるのはこれが初めてである。
論文 参考訳(メタデータ) (2024-12-12T23:57:01Z) - Understanding and Improving Training-Free AI-Generated Image Detections with Vision Foundation Models [68.90917438865078]
顔合成と編集のためのディープフェイク技術は、生成モデルに重大なリスクをもたらす。
本稿では,モデルバックボーン,タイプ,データセット間で検出性能がどう変化するかを検討する。
本稿では、顔画像のパフォーマンスを向上させるContrastive Blurと、ノイズタイプのバイアスに対処し、ドメイン間のパフォーマンスのバランスをとるMINDERを紹介する。
論文 参考訳(メタデータ) (2024-11-28T13:04:45Z) - Training Better Deep Learning Models Using Human Saliency [11.295653130022156]
本研究では、画像の正常領域に関する人間の判断が、ディープ畳み込みニューラルネットワーク(DCNN)トレーニングにどのように導入できるかを考察する。
本稿では,ConveYs Brain Oversight to raise Generalization (CYBORG) における損失関数の新たな構成要素を提案する。
論文 参考訳(メタデータ) (2024-10-21T16:52:44Z) - TWINS: A Fine-Tuning Framework for Improved Transferability of
Adversarial Robustness and Generalization [89.54947228958494]
本稿では,様々な分類タスクにおいて,逆向きに事前訓練されたモデルの微調整に焦点を当てる。
本稿では,TWINS(Two-WIng NormliSation)ファインチューニングフレームワークを提案する。
TWINSは、一般化とロバスト性の両方の観点から、幅広い画像分類データセットに有効であることが示されている。
論文 参考訳(メタデータ) (2023-03-20T14:12:55Z) - EfficientTrain: Exploring Generalized Curriculum Learning for Training
Visual Backbones [80.662250618795]
本稿では視覚バックボーン(例えば視覚変換器)の効率的なトレーニングのための新しいカリキュラム学習手法を提案する。
オフザシェルフ方式として、様々な人気モデルのウォールタイムトレーニングコストを、精度を犠牲にすることなく、ImageNet-1K/22Kで1.5倍に削減する。
論文 参考訳(メタデータ) (2022-11-17T17:38:55Z) - Reconciliation of Pre-trained Models and Prototypical Neural Networks in
Few-shot Named Entity Recognition [35.34238362639678]
本研究では,このようなミスマッチを経験的・理論的根拠と整合させる一線符号正規化法を提案する。
我々の研究は、数発のエンティティ認識における一般的な問題に対処するための分析的な視点も提供します。
論文 参考訳(メタデータ) (2022-11-07T02:33:45Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - CYBORG: Blending Human Saliency Into the Loss Improves Deep Learning [5.092711491848192]
本稿では,脳の一般性を高めるための初となるトレーニング戦略を提案する。
新しいトレーニングアプローチでは、人間の注釈付き唾液マップをCYBORG損失関数に組み込む。
合成顔検出作業の結果,CYBORG損失は,GAN(Generative Adversarial Networks)6つの顔画像から生成した複数の分類ネットワークアーキテクチャから生成した未知のサンプルに対して,顕著な性能向上をもたらすことが示された。
論文 参考訳(メタデータ) (2021-12-01T18:04:15Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z) - Feature Purification: How Adversarial Training Performs Robust Deep
Learning [66.05472746340142]
ニューラルネットワークのトレーニングプロセス中に隠れた重みに、特定の小さな密度の混合物が蓄積されることが、敵の例の存在の原因の1つであることを示す。
この原理を説明するために、CIFAR-10データセットの両実験と、ある自然な分類タスクに対して、ランダムな勾配勾配勾配を用いた2層ニューラルネットワークをトレーニングすることを証明する理論的結果を示す。
論文 参考訳(メタデータ) (2020-05-20T16:56:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。