論文の概要: Improving 2D face recognition via fine-level facial depth generation and
RGB-D complementary feature learning
- arxiv url: http://arxiv.org/abs/2305.04426v1
- Date: Mon, 8 May 2023 02:33:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 15:53:39.913663
- Title: Improving 2D face recognition via fine-level facial depth generation and
RGB-D complementary feature learning
- Title(参考訳): 精密顔深度生成とrgb-d相補的特徴学習による2次元顔認識の改善
- Authors: Wenhao Hu
- Abstract要約: 顔深度生成ネットワークと改良されたマルチモーダル補完特徴学習ネットワークを提案する。
Lock3DFaceデータセットとIIIT-Dデータセットの実験は、提案したFFDGNetとI MCFLNetがRGB-D顔認識の精度を向上させることを示した。
- 参考スコア(独自算出の注目度): 0.8223798883838329
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Face recognition in complex scenes suffers severe challenges coming from
perturbations such as pose deformation, ill illumination, partial occlusion.
Some methods utilize depth estimation to obtain depth corresponding to RGB to
improve the accuracy of face recognition. However, the depth generated by them
suffer from image blur, which introduces noise in subsequent RGB-D face
recognition tasks. In addition, existing RGB-D face recognition methods are
unable to fully extract complementary features. In this paper, we propose a
fine-grained facial depth generation network and an improved multimodal
complementary feature learning network. Extensive experiments on the Lock3DFace
dataset and the IIIT-D dataset show that the proposed FFDGNet and I MCFLNet can
improve the accuracy of RGB-D face recognition while achieving the
state-of-the-art performance.
- Abstract(参考訳): 複雑な場面における顔の認識は、ポーズ変形、照明、部分閉塞などの摂動から生じる深刻な課題に悩まされる。
深度推定を利用してRGBに対応する深度を求め、顔認識の精度を向上させる方法もある。
しかし、それらが生み出す深度は画像のぼやけに悩まされ、その後のRGB-D顔認識タスクにノイズが生じる。
さらに,既存のRGB-D顔認識手法では,補完的な特徴を完全に抽出することはできない。
本稿では,細粒度顔深度生成ネットワークと改良されたマルチモーダル相補的特徴学習ネットワークを提案する。
Lock3DFaceデータセットとIIIT-Dデータセットの大規模な実験により、提案したFFDGNetとI MCFLNetは、最先端の性能を達成しつつ、RGB-D顔認識の精度を向上させることができる。
関連論文リスト
- Confidence-Aware RGB-D Face Recognition via Virtual Depth Synthesis [48.59382455101753]
2D顔認証は、照明、閉塞、ポーズの変化により、制約のない環境において課題に遭遇する。
近年の研究では、深度情報を組み込んだRGB-D顔認証に焦点が当てられている。
本研究では,まず,深度モデル事前学習のための3次元Morphable Modelsによって生成された多様な深度データセットを構築する。
そこで本研究では,手軽に利用できるRGBと深度モデルを利用したドメイン非依存の事前学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T09:12:24Z) - Symmetric Uncertainty-Aware Feature Transmission for Depth
Super-Resolution [52.582632746409665]
カラー誘導DSRのためのSymmetric Uncertainty-aware Feature Transmission (SUFT)を提案する。
本手法は最先端の手法と比較して優れた性能を実現する。
論文 参考訳(メタデータ) (2023-06-01T06:35:59Z) - Physically-Based Face Rendering for NIR-VIS Face Recognition [165.54414962403555]
近赤外(NIR)と可視(VIS)の顔マッチングは、大きなドメインギャップのために困難である。
NIR-VIS対顔画像生成のための新しい手法を提案する。
アイデンティティ特徴学習を容易にするために,IDentityに基づく最大平均離散性(ID-MMD)損失を提案する。
論文 参考訳(メタデータ) (2022-11-11T18:48:16Z) - High-Accuracy RGB-D Face Recognition via Segmentation-Aware Face Depth
Estimation and Mask-Guided Attention Network [16.50097148165777]
ディープラーニングアプローチは、非常に大きな顔画像データセットでモデルをトレーニングすることで、極めて正確な顔認識を実現している。
大規模な2D顔画像データセットが利用可能であるのと異なり、大規模な3D顔データセットが公開されていない。
本稿では,RGB-D顔認識タスクを改善するための2つのCNNモデルを提案する。
論文 参考訳(メタデータ) (2021-12-22T07:46:23Z) - Total Scale: Face-to-Body Detail Reconstruction from Sparse RGBD Sensors [52.38220261632204]
PIFuをベースとした再建術では, 顔面の平坦化が頻発する。
再建した顔のディテールの質を高めるために,2段階のPIFu表現を提案する。
顔の鮮明な細部と身体形状の変形におけるアプローチの有効性を実験的に検証した。
論文 参考訳(メタデータ) (2021-12-03T18:46:49Z) - Depth as Attention for Face Representation Learning [11.885178256393893]
低コストRGB-Dセンサを用いた深度マルチモーダル顔認識のための新しい深度誘導型注意メカニズムを提案する。
この解は, 4つのデータセットに対して平均87.3% (+5.0%), 99.1% (+0.9%), 99.7% (+0.6%) および95.3% (+0.5%) の精度を達成する。
論文 参考訳(メタデータ) (2021-01-03T16:19:34Z) - 3D Dense Geometry-Guided Facial Expression Synthesis by Adversarial
Learning [54.24887282693925]
本稿では,3次元密度(深度,表面正規度)情報を表現操作に用いる新しいフレームワークを提案する。
既製の最先端3D再構成モデルを用いて深度を推定し,大規模RGB-Depthデータセットを作成する。
実験により,提案手法は競争ベースラインと既存の芸術を大きなマージンで上回ることを示した。
論文 参考訳(メタデータ) (2020-09-30T17:12:35Z) - Differential 3D Facial Recognition: Adding 3D to Your State-of-the-Art
2D Method [90.26041504667451]
能動照明を応用して最先端の2D顔認証手法を3次元特徴量で拡張できることが示唆された。
提案手法は顔認識性能を大幅に向上させ,スプーフィング攻撃に対するロバスト性を劇的に向上させる。
論文 参考訳(メタデータ) (2020-04-03T20:17:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。