論文の概要: Deep Learning-Based Feature Extraction in Iris Recognition: Use Existing
Models, Fine-tune or Train From Scratch?
- arxiv url: http://arxiv.org/abs/2002.08916v1
- Date: Thu, 20 Feb 2020 18:00:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 07:53:16.583875
- Title: Deep Learning-Based Feature Extraction in Iris Recognition: Use Existing
Models, Fine-tune or Train From Scratch?
- Title(参考訳): アイリス認識における深層学習に基づく特徴抽出:既存のモデル、ファインチューン、トレインをスクラッチから利用するか?
- Authors: Aidan Boyd, Adam Czajka, Kevin Bowyer
- Abstract要約: 最適なトレーニング戦略は、アイリス認識領域に既製の重量セットを微調整することである。
このアプローチは、既製の重量とスクラッチから訓練されたモデルの両方よりも精度が高い。
我々は,36万枚以上の虹彩画像を微調整したResNet-50モデルを,本論文とともに公開している。
- 参考スコア(独自算出の注目度): 4.658023970671232
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern deep learning techniques can be employed to generate effective feature
extractors for the task of iris recognition. The question arises: should we
train such structures from scratch on a relatively large iris image dataset, or
it is better to fine-tune the existing models to adapt them to a new domain? In
this work we explore five different sets of weights for the popular ResNet-50
architecture to find out whether iris-specific feature extractors perform
better than models trained for non-iris tasks. Features are extracted from each
convolutional layer and the classification accuracy achieved by a Support
Vector Machine is measured on a dataset that is disjoint from the samples used
in training of the ResNet-50 model. We show that the optimal training strategy
is to fine-tune an off-the-shelf set of weights to the iris recognition domain.
This approach results in greater accuracy than both off-the-shelf weights and a
model trained from scratch. The winning, fine-tuned approach also shows an
increase in performance when compared to previous work, in which only
off-the-shelf (not fine-tuned) models were used in iris feature extraction. We
make the best-performing ResNet-50 model, fine-tuned with more than 360,000
iris images, publicly available along with this paper.
- Abstract(参考訳): 現代のディープラーニング技術は、虹彩認識のタスクに有効な特徴抽出器を生成するために用いられる。
このような構造を比較的大きな虹彩画像データセットでスクラッチからトレーニングするか、あるいは既存のモデルを微調整して新しいドメインに適合させるほうがよいのか?
本研究では,一般的なResNet-50アーキテクチャに対して,アイリス固有の特徴抽出器が非アイリスタスクでトレーニングされたモデルよりも優れているかどうかを5つの異なる重み付けで調べる。
各畳み込み層から特徴を抽出し、resnet-50モデルのトレーニングに使用したサンプルから外れたデータセット上でサポートベクターマシンによって達成された分類精度を測定する。
最適なトレーニング戦略は、既成の重みのセットを虹彩認識領域に微調整することである。
このアプローチは、既製重量とスクラッチからトレーニングされたモデルの両方よりも高い精度をもたらす。
勝利した微調整のアプローチは、アイリスの特徴抽出にオフ・ザ・棚(微調整されていない)モデルのみを使用した以前の作業と比較して、パフォーマンスの向上も示している。
我々は,36万枚以上の虹彩画像を微調整したResNet-50モデルを,本論文とともに公開している。
関連論文リスト
- Extract More from Less: Efficient Fine-Grained Visual Recognition in Low-Data Regimes [0.22499166814992438]
本稿では,この課題に対するディープニューラルネットワークの性能向上を目的とした,AD-Netと呼ばれる新しいフレームワークを提案する。
特に, 本手法は, 強化試料を自己蒸留し, 有害なオーバーフィッティングを緩和することにより, 学習機能を洗練することを目的としている。
最小限のデータで、我々のフレームワークは、最大で45%の精度で顕著な相対的正確性を示した。
論文 参考訳(メタデータ) (2024-06-28T10:45:25Z) - Learning Customized Visual Models with Retrieval-Augmented Knowledge [104.05456849611895]
我々は、ターゲットドメイン用にカスタマイズされたビジュアルモデルを構築するための、関連するWeb知識を取得するためのフレームワークであるREACTを提案する。
我々は、Webスケールデータベースから最も関連性の高い画像テキストペアを外部知識として検索し、元の重みをすべて凍結しながら、新しいモジュール化されたブロックをトレーニングするだけで、モデルをカスタマイズすることを提案する。
REACTの有効性は、ゼロ、少数、フルショット設定を含む分類、検索、検出、セグメンテーションタスクに関する広範な実験を通じて実証される。
論文 参考訳(メタデータ) (2023-01-17T18:59:06Z) - Revisiting Classifier: Transferring Vision-Language Models for Video
Recognition [102.93524173258487]
ダウンストリームタスクのためのタスク非依存の深層モデルから知識を伝達することは、コンピュータビジョン研究において重要なトピックである。
本研究では,映像分類作業における知識の伝達に着目した。
予測された言語モデルを用いて、効率的な翻訳学習のための適切なセマンティックターゲットを生成する。
論文 参考訳(メタデータ) (2022-07-04T10:00:47Z) - Adaptive Convolutional Dictionary Network for CT Metal Artifact
Reduction [62.691996239590125]
本稿では,金属人工物削減のための適応畳み込み辞書ネットワーク(ACDNet)を提案する。
我々のACDNetは、トレーニングデータを介して、アーティファクトフリーCT画像の事前を自動で学習し、入力されたCT画像ごとに表現カーネルを適応的に調整することができる。
本手法は,モデルに基づく手法の明確な解釈可能性を継承し,学習に基づく手法の強力な表現能力を維持する。
論文 参考訳(メタデータ) (2022-05-16T06:49:36Z) - Efficient deep learning models for land cover image classification [0.29748898344267777]
土地利用土地被覆(LULC)画像分類のためのBigEarthNetデータセットを用いて実験を行った。
コンボリューションニューラルネットワーク、マルチ層パーセプトロン、ビジュアルトランスフォーマー、効率的なネットワーク、ワイド残留ネットワーク(WRN)など、さまざまな最先端モデルをベンチマークする。
提案する軽量モデルは、訓練可能なパラメータが桁違いに小さく、平均的なFスコア分類精度が19のLULCクラスすべてに対して4.5%向上し、ベースラインとして使用するResNet50の2倍高速に訓練される。
論文 参考訳(メタデータ) (2021-11-18T00:03:14Z) - Powerpropagation: A sparsity inducing weight reparameterisation [65.85142037667065]
我々は、本質的にスパースモデルにつながるニューラルネットワークの新しい重みパラメータ化であるPowerpropagationを紹介した。
この方法で訓練されたモデルは同様の性能を示すが、0で明らかに高い密度の分布を持ち、より多くのパラメータを安全に刈り取ることができる。
ここでは、Powerpropagationと従来のウェイトプルーニング技術と、最近の最先端スパース・トゥ・スパースアルゴリズムを組み合わせることで、ImageNetベンチマークで優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-10-01T10:03:57Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Classification of Seeds using Domain Randomization on Self-Supervised
Learning Frameworks [0.0]
鍵となるボトルネックは、畳み込みニューラルネットワーク(CNN)をトレーニングする大量のラベル付きデータの必要性である。
この研究は、これを達成するために、コントラスト学習とドメインランダム化の概念を活用している。
実世界の画像の表象的サンプル作物から生成された合成画像の使用は、大量のテスト対象の必要性を軽減する。
論文 参考訳(メタデータ) (2021-03-29T12:50:06Z) - The Untapped Potential of Off-the-Shelf Convolutional Neural Networks [29.205446247063673]
ResNet-50のような既存の市販モデルは、ImageNet上で95%以上の精度を持つことを示す。
このレベルのパフォーマンスは現在、20倍以上のパラメータとはるかに複雑なトレーニング手順を持つモデルを上回る。
論文 参考訳(メタデータ) (2021-03-17T20:04:46Z) - Multi-task pre-training of deep neural networks for digital pathology [8.74883469030132]
私たちはまず、多くのデジタル病理データセットを22の分類タスクと約900kの画像のプールに組み立て、変換しました。
特徴抽出器として使用されるモデルは、ImageNet事前訓練されたモデルよりも大幅に改善されるか、同等のパフォーマンスを提供するかを示す。
論文 参考訳(メタデータ) (2020-05-05T08:50:17Z) - Parameter-Efficient Transfer from Sequential Behaviors for User Modeling
and Recommendation [111.44445634272235]
本稿では,PeterRecと呼ばれるパラメータ効率のよい移動学習アーキテクチャを提案する。
PeterRecは、トレーニング済みのパラメータを、一連の再学習ニューラルネットワークを注入することで、微調整中に修正されないようにする。
我々は5つの下流タスクにおいて学習したユーザ表現の有効性を示すために、広範囲な実験的アブレーションを行う。
論文 参考訳(メタデータ) (2020-01-13T14:09:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。