論文の概要: Adversarial Masking Contrastive Learning for vein recognition
- arxiv url: http://arxiv.org/abs/2401.08079v1
- Date: Tue, 16 Jan 2024 03:09:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-17 15:12:22.799672
- Title: Adversarial Masking Contrastive Learning for vein recognition
- Title(参考訳): 血管認識のための対人マスキングコントラスト学習
- Authors: Huafeng Qin, Yiquan Wu, Mounim A. El-Yacoubi, Jun Wang, Guangxiang
Yang
- Abstract要約: ベイン認識は、セキュリティとプライバシーの高さから注目を集めている。
静脈認識のために、畳み込みニューラルネットワーク(CNN)やトランスフォーマーのようなディープニューラルネットワークが導入されている。
近年の進歩にもかかわらず、画像サンプルの不足のため、指先の特徴抽出のための既存のソリューションはまだ最適ではない。
- 参考スコア(独自算出の注目度): 10.886119051977785
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Vein recognition has received increasing attention due to its high security
and privacy. Recently, deep neural networks such as Convolutional neural
networks (CNN) and Transformers have been introduced for vein recognition and
achieved state-of-the-art performance. Despite the recent advances, however,
existing solutions for finger-vein feature extraction are still not optimal due
to scarce training image samples. To overcome this problem, in this paper, we
propose an adversarial masking contrastive learning (AMCL) approach, that
generates challenging samples to train a more robust contrastive learning model
for the downstream palm-vein recognition task, by alternatively optimizing the
encoder in the contrastive learning model and a set of latent variables. First,
a huge number of masks are generated to train a robust generative adversarial
network (GAN). The trained generator transforms a latent variable from the
latent variable space into a mask space. Then, we combine the trained generator
with a contrastive learning model to obtain our AMCL, where the generator
produces challenging masking images to increase the contrastive loss and the
contrastive learning model is trained based on the harder images to learn a
more robust feature representation. After training, the trained encoder in the
contrastive learning model is combined with a classification layer to build a
classifier, which is further fine-tuned on labeled training data for vein
recognition. The experimental results on three databases demonstrate that our
approach outperforms existing contrastive learning approaches in terms of
improving identification accuracy of vein classifiers and achieves
state-of-the-art recognition results.
- Abstract(参考訳): ベイン認識は、セキュリティとプライバシーの高さから注目を集めている。
近年,畳み込みニューラルネットワーク(cnn)やトランスフォーマーなどの深層ニューラルネットワークが静脈認識に導入され,最先端のパフォーマンスを実現している。
しかし,近年の進歩にもかかわらず,画像サンプルが不足しているため,既存の指先特徴抽出法はまだ最適ではない。
この問題を解決するために,本論文では,コントラスト学習モデルと潜伏変数の集合にエンコーダを最適化することにより,より堅牢なコントラスト学習モデルを下流のパームベイン認識タスク向けに訓練するための挑戦的なサンプルを生成する,逆マスキング・コントラスト学習(AMCL)アプローチを提案する。
第一に、堅牢な生成的対向ネットワーク(GAN)をトレーニングするために、大量のマスクが生成される。
訓練されたジェネレータは、潜在変数を潜在変数空間からマスク空間に変換する。
そして、訓練されたジェネレータをコントラスト学習モデルと組み合わせてAMCLを得る。そこでジェネレータは、コントラスト損失を増加させるために挑戦的なマスキング画像を生成し、コントラスト学習モデルは、より頑健な特徴表現を学習するために、より難しい画像に基づいて訓練する。
訓練後、コントラスト学習モデルの訓練されたエンコーダと分類層とを結合して分類器を構築し、さらに静脈認識のためのラベル付きトレーニングデータに微調整する。
3つのデータベースを用いた実験結果から,静脈分類器の識別精度の向上や最先端の認識結果の達成において,既存のコントラスト学習手法よりも優れることが示された。
関連論文リスト
- Transformer-based Clipped Contrastive Quantization Learning for
Unsupervised Image Retrieval [15.982022297570108]
教師なし画像検索は、与えられたクエリ画像の類似画像を取得するために、任意のレベルなしに重要な視覚的特徴を学習することを目的としている。
本稿では,パッチベースの処理により局所的なコンテキストを持つTransformerを用いて,画像のグローバルコンテキストを符号化するTransClippedCLRモデルを提案する。
提案したクリップ付きコントラスト学習の結果は、バニラコントラスト学習と同一のバックボーンネットワークと比較して、すべてのデータセットで大幅に改善されている。
論文 参考訳(メタデータ) (2024-01-27T09:39:11Z) - MENTOR: Human Perception-Guided Pretraining for Increased Generalization [5.596752018167751]
MENTOR (huMan pErceptioN-guided preTraining fOr increased geneRalization) を紹介する。
我々は、クラスラベルを使わずに、入力された画像からヒトの唾液マップを学習するためにオートエンコーダを訓練する。
我々は、デコーダ部分を取り除き、エンコーダの上に分類層を追加し、従来の新しいモデルを微調整する。
論文 参考訳(メタデータ) (2023-10-30T13:50:44Z) - CleftGAN: Adapting A Style-Based Generative Adversarial Network To
Create Images Depicting Cleft Lip Deformity [2.1647227058902336]
深層学習に基づく口唇生成装置を構築し, 口唇のファクシミリを高精細度に表現した, ほぼ無限の人工画像を生成する。
我々は、StyleGAN-ADAの異なるバージョンをテストするトランスファー学習プロトコルを実行した。
様々な裂裂の変形を描写した訓練画像は、回転、スケーリング、色調整、背景のぼやけを調整するために前処理された。
論文 参考訳(メタデータ) (2023-10-12T01:25:21Z) - Masking Improves Contrastive Self-Supervised Learning for ConvNets, and
Saliency Tells You Where [68.24640128324778]
我々は、畳み込みニューラルネットワークのためのコントラスト学習フレームワークにマスキング操作を組み込むことの負担を軽減することを目的としている。
マスクされた領域が、前景と背景の間に均等に分散されていることを考慮し、塩分濃度の制約を明示的に考慮することを提案する。
論文 参考訳(メタデータ) (2023-09-22T09:58:38Z) - Masked Image Modeling with Denoising Contrast [30.31920660487222]
マスク付き画像モデリングは、視覚変換器の最先端性能でこの研究のラインを独占している。
画像内画像間のコントラスト制約を生成するための,新しい事前学習手法であるConMIMを導入する。
ConMIM-pretrained vision Transformer with various scales achieve promising results on downstream image classification, semantic segmentation, object detection, and instance segmentation task。
論文 参考訳(メタデータ) (2022-05-19T15:22:29Z) - Improved Speech Emotion Recognition using Transfer Learning and
Spectrogram Augmentation [56.264157127549446]
音声感情認識(SER)は、人間とコンピュータの相互作用において重要な役割を果たす課題である。
SERの主な課題の1つは、データの不足である。
本稿では,スペクトログラム拡張と併用した移動学習戦略を提案する。
論文 参考訳(メタデータ) (2021-08-05T10:39:39Z) - Margin-Aware Intra-Class Novelty Identification for Medical Images [2.647674705784439]
ノベルティ検出のためのハイブリッドモデル-変換に基づく埋め込み学習(TEND)を提案する。
事前訓練されたオートエンコーダを画像特徴抽出器として、TENDは変換されたオートエンコーダから分布内データの特徴埋め込みを偽のアウト・オブ・ディストリビューション入力として識別する。
論文 参考訳(メタデータ) (2021-07-31T00:10:26Z) - Improved Slice-wise Tumour Detection in Brain MRIs by Computing
Dissimilarities between Latent Representations [68.8204255655161]
磁気共鳴画像(MRI)の異常検出は教師なし手法で行うことができる。
本研究では,変分オートエンコーダの潜伏空間における相似関数の計算に基づいて,腫瘍検出のためのスライスワイズ半教師法を提案する。
本研究では,高解像度画像上でのモデルをトレーニングし,再現の質を向上させることにより,異なるベースラインに匹敵する結果が得られることを示す。
論文 参考訳(メタデータ) (2020-07-24T14:02:09Z) - Learning to Learn Parameterized Classification Networks for Scalable
Input Images [76.44375136492827]
畳み込みニューラルネットワーク(CNN)は、入力解像度の変化に関して予測可能な認識動作を持たない。
我々はメタラーナーを用いて、様々な入力スケールのメインネットワークの畳み込み重みを生成する。
さらに、異なる入力解像度に基づいて、モデル予測よりもフライでの知識蒸留を利用する。
論文 参考訳(メタデータ) (2020-07-13T04:27:25Z) - Adversarial Self-Supervised Contrastive Learning [62.17538130778111]
既存の対数学習アプローチは、主にクラスラベルを使用して、誤った予測につながる対数サンプルを生成する。
本稿では,未ラベルデータに対する新たな逆攻撃を提案する。これにより,モデルが摂動データサンプルのインスタンスレベルのアイデンティティを混乱させる。
ラベル付きデータなしで頑健なニューラルネットワークを逆さまにトレーニングするための,自己教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-06-13T08:24:33Z) - Joint Deep Learning of Facial Expression Synthesis and Recognition [97.19528464266824]
顔表情の合成と認識を効果的に行うための新しい統合深層学習法を提案する。
提案手法は, 2段階の学習手順を伴い, まず, 表情の異なる顔画像を生成するために, 表情合成生成対向ネットワーク (FESGAN) を事前訓練する。
実画像と合成画像間のデータバイアスの問題を軽減するために,新しい実データ誘導バックプロパゲーション(RDBP)アルゴリズムを用いたクラス内損失を提案する。
論文 参考訳(メタデータ) (2020-02-06T10:56:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。