論文の概要: Synthesis-Guided Feature Learning for Cross-Spectral Periocular
Recognition
- arxiv url: http://arxiv.org/abs/2111.08738v1
- Date: Tue, 16 Nov 2021 19:22:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 13:46:31.564707
- Title: Synthesis-Guided Feature Learning for Cross-Spectral Periocular
Recognition
- Title(参考訳): クロススペクトルperiocular recognitionのための合成誘導型特徴学習
- Authors: Domenick Poster and Nasser Nasrabadi
- Abstract要約: 本研究は, 近赤外分光法における新しいアプローチを提案する。
主に、可視および近赤外画像から共有潜在表現部分空間へのマッピングを学ぶことに焦点を当てている。
画像再構成タスクにより、より差別的で、ドメイン不変な部分空間を学習できることを示す。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A common yet challenging scenario in periocular biometrics is cross-spectral
matching - in particular, the matching of visible wavelength against
near-infrared (NIR) periocular images. We propose a novel approach to
cross-spectral periocular verification that primarily focuses on learning a
mapping from visible and NIR periocular images to a shared latent
representational subspace, and supports this effort by simultaneously learning
intra-spectral image reconstruction. We show the auxiliary image reconstruction
task (and in particular the reconstruction of high-level, semantic features)
results in learning a more discriminative, domain-invariant subspace compared
to the baseline while incurring no additional computational or memory costs at
test-time. The proposed Coupled Conditional Generative Adversarial Network
(CoGAN) architecture uses paired generator networks (one operating on visible
images and the other on NIR) composed of U-Nets with ResNet-18 encoders trained
for feature learning via contrastive loss and for intra-spectral image
reconstruction with adversarial, pixel-based, and perceptual reconstruction
losses. Moreover, the proposed CoGAN model beats the current state-of-art
(SotA) in cross-spectral periocular recognition. On the Hong Kong PolyU
benchmark dataset, we achieve 98.65% AUC and 5.14% EER compared to the SotA EER
of 8.02%. On the Cross-Eyed dataset, we achieve 99.31% AUC and 3.99% EER versus
SotA EER of 4.39%.
- Abstract(参考訳): 近赤外(NIR)近赤外画像に対する可視波長のマッチングは、近赤外バイオメトリックスにおける一般的なシナリオである。
本稿では, 近視眼画像と近視眼画像から共有潜在表現部分空間へのマッピングを学習することを中心に, スペクトル内画像再構成を同時に学習することで, 新たなアプローチを提案する。
画像再構成タスク(特に高レベルなセマンティックな特徴の再構築)は,テスト時に余分な計算やメモリコストを伴わずに,ベースラインよりも識別性が高く,ドメイン不変な部分空間を学習する。
提案したCoGAN(Coupled Conditional Generative Adversarial Network)アーキテクチャは、U-NetとResNet-18エンコーダを組み合わせた、対向的損失による特徴学習と、対向的、画素ベース、知覚的再構成によるスペクトル内画像再構成のためのペアジェネレータネットワークを用いている。
さらに、提案したCoGANモデルは、近視眼近視認識における現在の最先端技術(SotA)を破る。
香港のPolyUベンチマークデータセットでは、SotA EERの8.02%に対して98.65%のAUCと5.14%のEERを達成した。
Cross-Eyedデータセットでは、99.31%のAUCと3.99%のEERを達成する。
関連論文リスト
- Attention Incorporated Network for Sharing Low-rank, Image and K-space Information during MR Image Reconstruction to Achieve Single Breath-hold Cardiac Cine Imaging [9.531827741901662]
我々は,MRI再構成のための新しい深層学習ネットワークに,低ランク,画像,k空間を含む複数の領域からの情報を埋め込むことを提案する。
A-LIKNetは並列ブランチ構造を採用し、k空間と画像領域で独立した学習を可能にする。
論文 参考訳(メタデータ) (2024-07-03T11:54:43Z) - DiAD: A Diffusion-based Framework for Multi-class Anomaly Detection [55.48770333927732]
本稿では,拡散型異常検出(Difusion-based Anomaly Detection, DAD)フレームワークを提案する。
画素空間オートエンコーダ、安定拡散の復調ネットワークに接続する潜在空間セマンティックガイド(SG)ネットワーク、特徴空間事前学習機能抽出器から構成される。
MVTec-ADとVisAデータセットの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-12-11T18:38:28Z) - An Interactively Reinforced Paradigm for Joint Infrared-Visible Image
Fusion and Saliency Object Detection [59.02821429555375]
この研究は、野生の隠れた物体の発見と位置決めに焦点をあて、無人のシステムに役立てる。
経験的分析により、赤外線と可視画像融合(IVIF)は、難しい物体の発見を可能にする。
マルチモーダル・サリエント・オブジェクト検出(SOD)は、画像内の物体の正確な空間的位置を正確に記述する。
論文 参考訳(メタデータ) (2023-05-17T06:48:35Z) - A Novel end-to-end Framework for Occluded Pixel Reconstruction with
Spatio-temporal Features for Improved Person Re-identification [0.842885453087587]
人の身元確認は、公共の安全を高めるために群衆の動きを監視し、追跡するために不可欠である。
本研究では、ディープニューラルネットワークからなるRGB画像/映像の効果的な閉塞検出・再構成フレームワークを開発することにより、有効な解を提案する。
具体的には、CNNベースのオクルージョン検出モデルが個々の入力フレームを分類し、次いでConv-LSTMおよびオートエンコーダを用いて、シーケンシャル(ビデオ)および非シーケンシャル(画像)データに対して、オクルードされたフレームに対応するオクルード画素を再構成する。
論文 参考訳(メタデータ) (2023-04-16T08:14:29Z) - Exploring Invariant Representation for Visible-Infrared Person
Re-Identification [77.06940947765406]
異なるスペクトルを横断する歩行者にアイデンティティを関連付けることを目的とした、クロススペクトルの人物再識別は、モダリティの相違の主な課題に直面している。
本稿では、ロバスト機能マイニングネットワーク(RFM)と呼ばれるエンドツーエンドのハイブリッド学習フレームワークにおいて、画像レベルと特徴レベルの両方の問題に対処する。
RegDBとSYSU-MM01という2つの標準的なクロススペクトル人物識別データセットの実験結果により,最先端の性能が示された。
論文 参考訳(メタデータ) (2023-02-02T05:24:50Z) - Multi-Modal MRI Reconstruction with Spatial Alignment Network [51.74078260367654]
臨床実践では、複数のコントラストを持つMRIが1つの研究で取得されるのが普通である。
近年の研究では、異なるコントラストやモダリティの冗長性を考慮すると、k空間にアンダーサンプリングされたMRIの目標モダリティは、完全にサンプリングされたシーケンスの助けを借りてよりよく再構成できることが示されている。
本稿では,空間アライメントネットワークと再構成を統合し,再構成対象のモダリティの質を向上させる。
論文 参考訳(メタデータ) (2021-08-12T08:46:35Z) - Deep GAN-Based Cross-Spectral Cross-Resolution Iris Recognition [15.425678759101203]
クロススペクトル虹彩認識は、個人のアイデンティティを確立するための有望な生体計測手法として出現している。
異なるスペクトル帯域で取得した虹彩画像(すなわち、可視(VIS)虹彩プローブと近赤外(NIR)虹彩画像のギャラリーとのマッチング)は、大きな性能劣化を示す。
我々は,クロススペクトル虹彩認識手法の精度を高めるために,深層畳み込み生成対向ネットワーク(DCGAN)アーキテクチャについて検討した。
論文 参考訳(メタデータ) (2021-08-03T15:30:04Z) - Cross-Spectral Iris Matching Using Conditional Coupled GAN [22.615156512223766]
クロススペクトル虹彩認識は、個人のアイデンティティを認証するための有望な生体計測手法として出現している。
異なるスペクトル帯域で取得したアイリス画像のマッチングは、単一帯域近赤外(NIR)マッチングと比較して顕著な性能低下を示した。
クロススペクトル虹彩認識のための条件結合生成対向ネットワーク(CpGAN)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-10-09T19:13:24Z) - Cross-Spectral Periocular Recognition with Conditional Adversarial
Networks [59.17685450892182]
本研究では,近赤外・近赤外スペクトル間の近赤外画像の変換を訓練した条件付き生成逆相関ネットワークを提案する。
EER=1%, GAR>99% @ FAR=1%, ポリUデータベースの最先端技術に匹敵するスペクトル近視性能を得た。
論文 参考訳(メタデータ) (2020-08-26T15:02:04Z) - Spectrum Translation for Cross-Spectral Ocular Matching [59.17685450892182]
バイオメトリックスでは、特に眼領域において、クロススペクトル検証が大きな問題となっている。
近赤外画像と視覚光画像のスペクトル変換におけるコンディショナル・ディバイサル・ネットワークの利用について検討した。
論文 参考訳(メタデータ) (2020-02-14T19:30:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。