論文の概要: A Bidirectional Conversion Network for Cross-Spectral Face Recognition
- arxiv url: http://arxiv.org/abs/2205.01595v1
- Date: Tue, 3 May 2022 16:20:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-04 14:22:20.649911
- Title: A Bidirectional Conversion Network for Cross-Spectral Face Recognition
- Title(参考訳): クロススペクトル顔認識のための双方向変換ネットワーク
- Authors: Zhicheng Cao, Jiaxuan Zhang, Liaojun Pang
- Abstract要約: 可視光画像と赤外線画像との劇的な違いにより、スペクトル間顔認識は困難である。
本稿では,異種顔画像間の双方向クロススペクトル変換(BCSC-GAN)の枠組みを提案する。
ネットワークは、スペクトル間認識問題をスペクトル内問題に還元し、双方向情報を融合することで性能を向上させる。
- 参考スコア(独自算出の注目度): 1.9766522384767227
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Face recognition in the infrared (IR) band has become an important supplement
to visible light face recognition due to its advantages of independent
background light, strong penetration, ability of imaging under harsh
environments such as nighttime, rain and fog. However, cross-spectral face
recognition (i.e., VIS to IR) is very challenging due to the dramatic
difference between the visible light and IR imageries as well as the lack of
paired training data. This paper proposes a framework of bidirectional
cross-spectral conversion (BCSC-GAN) between the heterogeneous face images, and
designs an adaptive weighted fusion mechanism based on information fusion
theory. The network reduces the cross-spectral recognition problem into an
intra-spectral problem, and improves performance by fusing bidirectional
information. Specifically, a face identity retaining module (IRM) is introduced
with the ability to preserve identity features, and a new composite loss
function is designed to overcome the modal differences caused by different
spectral characteristics. Two datasets of TINDERS and CASIA were tested, where
performance metrics of FID, recognition rate, equal error rate and normalized
distance were compared. Results show that our proposed network is superior than
other state-of-the-art methods. Additionally, the proposed rule of Self
Adaptive Weighted Fusion (SAWF) is better than the recognition results of the
unfused case and other traditional fusion rules that are commonly used, which
further justifies the effectiveness and superiority of the proposed
bidirectional conversion approach.
- Abstract(参考訳): 赤外線(IR)帯域における顔の認識は、暗黒光、強い透過性、夜間、雨、霧などの厳しい環境下での撮像能力などの利点により、可視光の認識にとって重要な補助となる。
しかし、可視光と赤外線画像の劇的な違いと、ペアのトレーニングデータの欠如により、クロススペクトル顔認識(すなわちVISからIR)は非常に困難である。
本稿では、異種顔画像間の双方向クロススペクトル変換(BCSC-GAN)の枠組みを提案し、情報融合理論に基づく適応重み付き融合機構を設計する。
ネットワークは、クロススペクトル認識問題をスペクトル内問題に還元し、双方向情報を用いて性能を向上させる。
具体的には、顔のアイデンティティ保持モジュール(IRM)に、識別特性を保存できる機能を導入し、異なるスペクトル特性によるモード差を克服するために、新しい複合損失関数を設計する。
ティンダーとcasiaの2つのデータセットをテストし,fidの性能指標,認識率,誤差率,正規化距離を比較した。
その結果,提案ネットワークは他の最先端手法よりも優れていることがわかった。
さらに, 自己適応型重み付き融合 (sawf) のルールは, 一般に用いられる非融解例や従来型融合規則の認識結果よりも優れており, 提案する双方向変換手法の有効性と優位性をさらに正当化している。
関連論文リスト
- Cross-Modality Perturbation Synergy Attack for Person Re-identification [66.48494594909123]
相互モダリティReIDの主な課題は、異なるモダリティ間の視覚的差異を効果的に扱うことである。
既存の攻撃方法は、目に見える画像のモダリティの特徴に主に焦点を当てている。
本研究では,クロスモーダルReIDに特化して設計されたユニバーサル摂動攻撃を提案する。
論文 参考訳(メタデータ) (2024-01-18T15:56:23Z) - Frequency Domain Modality-invariant Feature Learning for
Visible-infrared Person Re-Identification [79.9402521412239]
本稿では、周波数領域から見たモダリティの相違を低減するために、新しい周波数領域モダリティ不変特徴学習フレームワーク(FDMNet)を提案する。
我々のフレームワークでは、インスタンス適応振幅フィルタ(IAF)とPhrase-Preserving Normalization(PPNorm)という、2つの新しいモジュールを導入している。
論文 参考訳(メタデータ) (2024-01-03T17:11:27Z) - Hypergraph-Guided Disentangled Spectrum Transformer Networks for
Near-Infrared Facial Expression Recognition [31.783671943393344]
近赤外顔表情変換器(NFER-Former)を提案する。
NFER-Formerは、入力画像から表現情報とスペクトル情報を切り離して、スペクトル変動の干渉なく表現特徴を抽出する。
我々は、NFER-Formerの効率をよりよく評価するために、360個の被験者を含む大規模なNIR-VIS顔表現データセットを構築した。
論文 参考訳(メタデータ) (2023-12-10T15:15:50Z) - Exploring Invariant Representation for Visible-Infrared Person
Re-Identification [77.06940947765406]
異なるスペクトルを横断する歩行者にアイデンティティを関連付けることを目的とした、クロススペクトルの人物再識別は、モダリティの相違の主な課題に直面している。
本稿では、ロバスト機能マイニングネットワーク(RFM)と呼ばれるエンドツーエンドのハイブリッド学習フレームワークにおいて、画像レベルと特徴レベルの両方の問題に対処する。
RegDBとSYSU-MM01という2つの標準的なクロススペクトル人物識別データセットの実験結果により,最先端の性能が示された。
論文 参考訳(メタデータ) (2023-02-02T05:24:50Z) - Unsupervised Misaligned Infrared and Visible Image Fusion via
Cross-Modality Image Generation and Registration [59.02821429555375]
我々は、教師なし不整合赤外線と可視画像融合のための頑健な相互モダリティ生成登録パラダイムを提案する。
登録された赤外線画像と可視画像とを融合させるため,IFM (Feature Interaction Fusion Module) を提案する。
論文 参考訳(メタデータ) (2022-05-24T07:51:57Z) - Target-aware Dual Adversarial Learning and a Multi-scenario
Multi-Modality Benchmark to Fuse Infrared and Visible for Object Detection [65.30079184700755]
本研究は、物体検出のために異なるように見える赤外線と可視画像の融合の問題に対処する。
従来のアプローチでは、2つのモダリティの根底にある共通点を発見し、反復最適化またはディープネットワークによって共通空間に融合する。
本稿では、融合と検出の連立問題に対する二段階最適化の定式化を提案し、その後、核融合と一般的に使用される検出ネットワークのためのターゲット認識デュアル逆学習(TarDAL)ネットワークに展開する。
論文 参考訳(メタデータ) (2022-03-30T11:44:56Z) - Deep GAN-Based Cross-Spectral Cross-Resolution Iris Recognition [15.425678759101203]
クロススペクトル虹彩認識は、個人のアイデンティティを確立するための有望な生体計測手法として出現している。
異なるスペクトル帯域で取得した虹彩画像(すなわち、可視(VIS)虹彩プローブと近赤外(NIR)虹彩画像のギャラリーとのマッチング)は、大きな性能劣化を示す。
我々は,クロススペクトル虹彩認識手法の精度を高めるために,深層畳み込み生成対向ネットワーク(DCGAN)アーキテクチャについて検討した。
論文 参考訳(メタデータ) (2021-08-03T15:30:04Z) - Hierarchical Deep CNN Feature Set-Based Representation Learning for
Robust Cross-Resolution Face Recognition [59.29808528182607]
クロスリゾリューション顔認識(CRFR)は、インテリジェントな監視およびバイオメトリックフォレンジックにおいて重要である。
既存の浅層学習と深層学習に基づく手法は、HR-LR対を共同特徴空間にマッピングすることに焦点を当てている。
本研究では,多レベル深層畳み込みニューラルネットワーク(CNN)の機能を完全に活用し,堅牢なCRFRを実現することを目的とする。
論文 参考訳(メタデータ) (2021-03-25T14:03:42Z) - Cross-Spectral Iris Matching Using Conditional Coupled GAN [22.615156512223766]
クロススペクトル虹彩認識は、個人のアイデンティティを認証するための有望な生体計測手法として出現している。
異なるスペクトル帯域で取得したアイリス画像のマッチングは、単一帯域近赤外(NIR)マッチングと比較して顕著な性能低下を示した。
クロススペクトル虹彩認識のための条件結合生成対向ネットワーク(CpGAN)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2020-10-09T19:13:24Z) - HyperFaceNet: A Hyperspectral Face Recognition Method Based on Deep
Fusion [0.7734726150561088]
異なる光バンド、すなわちハイパースペクトル顔認識を融合する方法は、まだオープンな研究課題である。
本稿では,特にハイパースペクトル面に対する新しい融合モデル(HyperFaceNet)を提案する。
本手法は,可視光や赤外線を用いた顔認識よりも高い認識率を示す。
論文 参考訳(メタデータ) (2020-08-02T14:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。