論文の概要: Texture Aware Autoencoder Pre-training And Pairwise Learning Refinement
For Improved Iris Recognition
- arxiv url: http://arxiv.org/abs/2202.07499v1
- Date: Tue, 15 Feb 2022 15:12:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 15:05:05.108297
- Title: Texture Aware Autoencoder Pre-training And Pairwise Learning Refinement
For Improved Iris Recognition
- Title(参考訳): アイリス認識のためのテクスチャ認識オートエンコーダの事前学習とペアワイズ学習
- Authors: Manashi Chakraborty, Aritri Chakraborty, Prabir Kumar Biswas, Pabitra
Mitra
- Abstract要約: 本稿では,訓練データに制限のあるデータセットに対して,エンドツーエンドでトレーニング可能な虹彩認識システムを提案する。
私たちは、いくつかの重要な最適化とアーキテクチャの革新によって、以前の段階的な学習フレームワークを構築しました。
利用可能な3つのアイリスデータセットにまたがってモデルを検証し、提案したモデルは従来の学習ベースラインとディープラーニングベースラインを一貫して上回ります。
- 参考スコア(独自算出の注目度): 16.383084641568693
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents a texture aware end-to-end trainable iris recognition
system, specifically designed for datasets like iris having limited training
data. We build upon our previous stagewise learning framework with certain key
optimization and architectural innovations. First, we pretrain a Stage-1
encoder network with an unsupervised autoencoder learning optimized with an
additional data relation loss on top of usual reconstruction loss. The data
relation loss enables learning better texture representation which is pivotal
for a texture rich dataset such as iris. Robustness of Stage-1 feature
representation is further enhanced with an auxiliary denoising task. Such
pre-training proves beneficial for effectively training deep networks on data
constrained iris datasets. Next, in Stage-2 supervised refinement, we design a
pairwise learning architecture for an end-to-end trainable iris recognition
system. The pairwise learning includes the task of iris matching inside the
training pipeline itself and results in significant improvement in recognition
performance compared to usual offline matching. We validate our model across
three publicly available iris datasets and the proposed model consistently
outperforms both traditional and deep learning baselines for both
Within-Dataset and Cross-Dataset configurations
- Abstract(参考訳): 本稿では,学習データに制限のあるアイリスのようなデータセットを対象とした,テクスチャを意識したエンドツーエンドのトレーニング可能なアイリス認識システムを提案する。
私たちは、重要な最適化とアーキテクチャの革新によって、以前の段階的な学習フレームワークを構築しました。
まず、ステージ1エンコーダネットワークを事前学習し、教師なしのオートエンコーダ学習を行い、通常の再構成損失に加えて追加のデータ関連損失を最適化する。
データ関係損失は、irisのようなテクスチャリッチデータセットにとって重要な、より優れたテクスチャ表現の学習を可能にする。
Stage-1の特徴表現のロバスト性は補助的認知タスクによってさらに強化される。
このような事前トレーニングは、制約付きirisデータセットでディープネットワークを効果的にトレーニングするのに有用である。
次に,ステージ2の教師ありリファインメントにおいて,エンドツーエンドのトレーニング可能な虹彩認識システムのためのペアワイズ学習アーキテクチャを設計する。
ペア学習は、トレーニングパイプライン内における虹彩マッチングのタスクを含み、通常のオフラインマッチングに比べて認識性能が大幅に向上する。
提案モデルは,データセット内およびデータセット間の構成において,従来型と深層型の両方のベースラインを一貫して上回っている。
関連論文リスト
- Mono2Stereo: Monocular Knowledge Transfer for Enhanced Stereo Matching [7.840781070208874]
ステレオマッチング,すなわちMono2Stereoを強化するために,モノラルな知識伝達を活用することを提案する。
合成データ事前学習と実世界のデータ微調整を併用した2段階の学習プロセスによる知識伝達を導入する。
実験の結果,事前学習したモデルでは強いゼロショット能力を示すことがわかった。
論文 参考訳(メタデータ) (2024-11-14T03:01:36Z) - Koopcon: A new approach towards smarter and less complex learning [13.053285552524052]
ビッグデータの時代、データセットの膨大な量と複雑さは、機械学習において大きな課題を引き起こします。
本稿では,クープマン演算子理論を背景とした,革新的オートエンコーダに基づくデータセット凝縮モデルを提案する。
人間の脳の予測的コーディング機構にインスパイアされた我々のモデルは、データをエンコードし再構成するための新しいアプローチを活用する。
論文 参考訳(メタデータ) (2024-05-22T17:47:14Z) - Bilevel Fast Scene Adaptation for Low-Light Image Enhancement [50.639332885989255]
低照度シーンにおける画像の強調は、コンピュータビジョンにおいて難しいが、広く懸念されている課題である。
主な障害は、異なるシーンにまたがる分散の相違によるモデリングの混乱にある。
上述の潜在対応をモデル化するための双レベルパラダイムを導入する。
エンコーダのシーン非関連な一般化を多様なシーンにもたらすために、双方向学習フレームワークを構築した。
論文 参考訳(メタデータ) (2023-06-02T08:16:21Z) - Class Anchor Margin Loss for Content-Based Image Retrieval [97.81742911657497]
距離学習パラダイムに該当する新しいレペラ・トラクタ損失を提案するが、ペアを生成する必要がなく、直接L2メトリックに最適化する。
CBIRタスクにおいて,畳み込みアーキテクチャと変圧器アーキテクチャの両方を用いて,少数ショットおよびフルセットトレーニングの文脈で提案した目的を評価する。
論文 参考訳(メタデータ) (2023-06-01T12:53:10Z) - Adaptive Cross Batch Normalization for Metric Learning [75.91093210956116]
メトリクス学習はコンピュータビジョンの基本的な問題である。
蓄積した埋め込みが最新であることを保証することは、同様に重要であることを示す。
特に、蓄積した埋め込みと現在のトレーニングイテレーションにおける特徴埋め込みとの間の表現的ドリフトを回避する必要がある。
論文 参考訳(メタデータ) (2023-03-30T03:22:52Z) - Deepfake Detection via Joint Unsupervised Reconstruction and Supervised
Classification [25.84902508816679]
本稿では,再建作業と分類作業を同時に行うディープフェイク検出手法を提案する。
この方法は、あるタスクによって学習された情報を他のタスクと共有する。
提案手法は,一般的に使用されている3つのデータセットに対して,最先端の性能を実現する。
論文 参考訳(メタデータ) (2022-11-24T05:44:26Z) - Learning Co-segmentation by Segment Swapping for Retrieval and Discovery [67.6609943904996]
この研究の目的は、一対のイメージから視覚的に類似したパターンを効率的に識別することである。
画像中のオブジェクトセグメントを選択し、それを別の画像にコピーペーストすることで、合成トレーニングペアを生成する。
提案手法は,Brueghelデータセット上でのアートワークの詳細検索に対して,明確な改善をもたらすことを示す。
論文 参考訳(メタデータ) (2021-10-29T16:51:16Z) - Dataset Condensation with Gradient Matching [36.14340188365505]
本研究では,大規模なデータセットを,深層ニューラルネットワークをスクラッチからトレーニングするための情報的合成サンプルの小さなセットに凝縮させることを学習する,データセット凝縮という,データ効率のよい学習のためのトレーニングセット合成手法を提案する。
いくつかのコンピュータビジョンベンチマークでその性能を厳格に評価し、最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-06-10T16:30:52Z) - Omni-supervised Facial Expression Recognition via Distilled Data [120.11782405714234]
ネットワークトレーニングにおいて,信頼度の高いサンプルを多量のラベルのないデータで活用するためのオムニ教師付き学習を提案する。
我々は,新しいデータセットが学習したFERモデルの能力を大幅に向上させることができることを実験的に検証した。
そこで本研究では,生成したデータセットを複数のクラスワイド画像に圧縮するために,データセット蒸留戦略を適用することを提案する。
論文 参考訳(メタデータ) (2020-05-18T09:36:51Z) - Learning to Hash with Graph Neural Networks for Recommender Systems [103.82479899868191]
グラフ表現学習は、大規模に高品質な候補探索をサポートすることに多くの注目を集めている。
ユーザ・イテム相互作用ネットワークにおけるオブジェクトの埋め込みベクトルの学習の有効性にもかかわらず、連続的な埋め込み空間におけるユーザの好みを推測する計算コストは膨大である。
連続的かつ離散的なコードとを協調的に学習するための,単純かつ効果的な離散表現学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-04T06:59:56Z) - Unsupervised Pre-trained, Texture Aware And Lightweight Model for Deep
Learning-Based Iris Recognition Under Limited Annotated Data [17.243339961137643]
虹彩認識のためのテクスチャ対応軽量ディープラーニングフレームワークを提案する。
ラベル付き虹彩データの変形に対処するために,教師なし事前訓練段階の再建損失を導出する手法を提案する。
次に、虹彩テクスチャをよりよく活用するために、畳み込みニューラルネットワーク内のいくつかのテクスチャを意識した即興性を提案する。
論文 参考訳(メタデータ) (2020-02-20T22:30:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。