論文の概要: A Joint Pixel and Feature Alignment Framework for Cross-dataset
Palmprint Recognition
- arxiv url: http://arxiv.org/abs/2005.12044v1
- Date: Mon, 25 May 2020 11:40:51 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-29 06:15:03.233567
- Title: A Joint Pixel and Feature Alignment Framework for Cross-dataset
Palmprint Recognition
- Title(参考訳): クロスデータセットパームプリント認識のための共同画素と特徴アライメントフレームワーク
- Authors: Huikai Shao and Dexing Zhong
- Abstract要約: そこで本研究では,マルチデータセット・パームプリント認識シナリオのための新しい統合画素・特徴アライメント(JPFA)フレームワークを提案する。
2つのステージアライメントを適用して、ソースおよびターゲットデータセットの適応的な特徴を得る。
ベースラインと比較して、クロスデータセット識別の精度は最大28.10%向上し、クロスデータセット検証のEER(Equal Error Rate)は最大4.69%削減される。
- 参考スコア(独自算出の注目度): 25.43285951112965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning-based palmprint recognition algorithms have shown great
potential. Most of them are mainly focused on identifying samples from the same
dataset. However, they may be not suitable for a more convenient case that the
images for training and test are from different datasets, such as collected by
embedded terminals and smartphones. Therefore, we propose a novel Joint Pixel
and Feature Alignment (JPFA) framework for such cross-dataset palmprint
recognition scenarios. Two stage-alignment is applied to obtain adaptive
features in source and target datasets. 1) Deep style transfer model is adopted
to convert source images into fake images to reduce the dataset gaps and
perform data augmentation on pixel level. 2) A new deep domain adaptation model
is proposed to extract adaptive features by aligning the dataset-specific
distributions of target-source and target-fake pairs on feature level. Adequate
experiments are conducted on several benchmarks including constrained and
unconstrained palmprint databases. The results demonstrate that our JPFA
outperforms other models to achieve the state-of-the-arts. Compared with
baseline, the accuracy of cross-dataset identification is improved by up to
28.10% and the Equal Error Rate (EER) of cross-dataset verification is reduced
by up to 4.69%. To make our results reproducible, the codes are publicly
available at http://gr.xjtu.edu.cn/web/bell/resource.
- Abstract(参考訳): ディープラーニングベースのパームプリント認識アルゴリズムは大きな可能性を秘めている。
その多くは、同じデータセットからサンプルを識別することに集中している。
しかし、トレーニングやテスト用の画像が、組み込み端末やスマートフォンによって収集されるような、異なるデータセットからのものであるような、より便利なケースには適していないかもしれない。
そこで我々は,このようなパームプリント横断認識シナリオのための新しい統合画素・特徴アライメント(jpfa)フレームワークを提案する。
2つのステージアライメントを適用して、ソースおよびターゲットデータセットの適応的な特徴を得る。
1) ソース画像から偽画像に変換してデータセットのギャップを減らし, ピクセルレベルでデータ拡張を行うために, ディープスタイルの転送モデルを採用する。
2) ターゲットソースとターゲットフェイクペアのデータセット固有の分布を特徴レベルで整合させることにより適応的特徴を抽出するための新しい深部領域適応モデルを提案する。
制約付きおよび制約なしのpalmprintデータベースを含むいくつかのベンチマークで適切な実験が行われた。
その結果、jpfaは最先端を達成するために他のモデルよりも優れています。
ベースラインと比較して、クロスデータセット識別の精度が最大28.10%向上し、クロスデータセット検証の等しいエラーレート(eer)が最大4.69%低減される。
結果を再現できるように、コードはhttp://gr.xjtu.edu.cn/web/bell/resource.comで公開されています。
関連論文リスト
- DatasetDM: Synthesizing Data with Perception Annotations Using Diffusion
Models [61.906934570771256]
多様な合成画像や知覚アノテーションを生成できる汎用データセット生成モデルを提案する。
本手法は,事前学習した拡散モデルに基づいて,テキスト誘導画像合成を知覚データ生成に拡張する。
拡散モデルのリッチ潜時コードはデコーダモジュールを用いて正確な認識アノテーションとして効果的に復号できることを示す。
論文 参考訳(メタデータ) (2023-08-11T14:38:11Z) - CSP: Self-Supervised Contrastive Spatial Pre-Training for
Geospatial-Visual Representations [90.50864830038202]
ジオタグ付き画像の自己教師型学習フレームワークであるContrastive Spatial Pre-Training(CSP)を提案する。
デュアルエンコーダを用いて画像とその対応する位置情報を別々に符号化し、コントラスト目的を用いて画像から効果的な位置表現を学習する。
CSPは、様々なラベル付きトレーニングデータサンプリング比と10~34%の相対的な改善で、モデル性能を大幅に向上させる。
論文 参考訳(メタデータ) (2023-05-01T23:11:18Z) - CAFS: Class Adaptive Framework for Semi-Supervised Semantic Segmentation [5.484296906525601]
半教師付きセマンティックセグメンテーションは、いくつかのラベル付きサンプルと多数のラベルなし画像を使用して、ピクセルを特定のクラスに分類するモデルを学ぶ。
半教師付きセマンティックセグメンテーション(CAFS)のためのクラス適応型セミスーパービジョンフレームワークを提案する。
CAFSはラベル付きデータセットに検証セットを構築し、各クラスの校正性能を活用する。
論文 参考訳(メタデータ) (2023-03-21T05:56:53Z) - Mitigating Representation Bias in Action Recognition: Algorithms and
Benchmarks [76.35271072704384]
ディープラーニングモデルは、稀なシーンやオブジェクトを持つビデオに適用すると、パフォーマンスが悪くなります。
この問題にはアルゴリズムとデータセットの2つの異なる角度から対処する。
偏りのある表現は、他のデータセットやタスクに転送するとより一般化できることを示す。
論文 参考訳(メタデータ) (2022-09-20T00:30:35Z) - Detecting Deepfakes with Self-Blended Images [37.374772758057844]
本稿では,深度情報を検出するために,SBI(Self-blended Image)と呼ばれる新しい合成トレーニングデータを提案する。
SBIは、単一のプリスタン画像から擬似ソースとターゲットイメージを混合して生成される。
我々は,FF++,CDF,DFD,DFDC,DFDCP,FFIWデータセットの最先端手法との比較を行った。
論文 参考訳(メタデータ) (2022-04-18T15:44:35Z) - Learning Co-segmentation by Segment Swapping for Retrieval and Discovery [67.6609943904996]
この研究の目的は、一対のイメージから視覚的に類似したパターンを効率的に識別することである。
画像中のオブジェクトセグメントを選択し、それを別の画像にコピーペーストすることで、合成トレーニングペアを生成する。
提案手法は,Brueghelデータセット上でのアートワークの詳細検索に対して,明確な改善をもたらすことを示す。
論文 参考訳(メタデータ) (2021-10-29T16:51:16Z) - Free Lunch for Co-Saliency Detection: Context Adjustment [14.688461235328306]
市販のサリエンシ検出データセットからの画像を利用して新しいサンプルを合成する「コストフリー」グループカットペースト(GCP)手順を提案する。
我々は、Context Adjustment Trainingと呼ばれる新しいデータセットを収集します。データセットの2つのバリエーション、すなわち、CATとCAT+は、それぞれ16,750と33,500の画像で構成されています。
論文 参考訳(メタデータ) (2021-08-04T14:51:37Z) - Multi-dataset Pretraining: A Unified Model for Semantic Segmentation [97.61605021985062]
我々は、異なるデータセットの断片化アノテーションを最大限に活用するために、マルチデータセット事前訓練と呼ばれる統合フレームワークを提案する。
これは、複数のデータセットに対して提案されたピクセルからプロトタイプへのコントラスト損失を通じてネットワークを事前トレーニングすることで実現される。
異なるデータセットからの画像とクラス間の関係をより良くモデル化するために、クロスデータセットの混合によりピクセルレベルの埋め込みを拡張する。
論文 参考訳(メタデータ) (2021-06-08T06:13:11Z) - DAIL: Dataset-Aware and Invariant Learning for Face Recognition [67.4903809903022]
顔認識の性能向上のためには、通常大規模なトレーニングデータセットが必要である。
2つの大きな問題のために異なるデータセットを自然に組み合わせるのは問題で面倒です。
トレーニング中に異なるデータセットの異なるクラスと同じ人を扱うことは、バックプロパゲーションに影響します。
手動でラベルをクリーニングするには 人的努力が要る 特に何百万もの画像と何千ものIDがある時は
論文 参考訳(メタデータ) (2021-01-14T01:59:52Z) - Learning to Recognize Patch-Wise Consistency for Deepfake Detection [39.186451993950044]
パッチワイド一貫性学習(PCL)という,このタスクのための表現学習手法を提案する。
PCLは、画像のソース機能の一貫性を測定し、複数の偽造方法に対する優れた解釈性と堅牢性で表現することを学びます。
7つの一般的なDeepfake検出データセットに対するアプローチを評価します。
論文 参考訳(メタデータ) (2020-12-16T23:06:56Z) - Domain-invariant Similarity Activation Map Contrastive Learning for
Retrieval-based Long-term Visual Localization [30.203072945001136]
本研究では,多領域画像変換による領域不変特徴抽出のために,確率論的に一般アーキテクチャを定式化する。
そして、より精密な局所化のために、新しい勾配重み付き類似性活性化写像損失(Grad-SAM)を組み込んだ。
CMUSeasonsデータセットにおける提案手法の有効性を検証するために大規模な実験が行われた。
我々の性能は、最先端のイメージベースのローカライゼーションベースラインを中あるいは高精度で上回るか、あるいは上回る。
論文 参考訳(メタデータ) (2020-09-16T14:43:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。