論文の概要: Teacher-Student Adversarial Depth Hallucination to Improve Face
Recognition
- arxiv url: http://arxiv.org/abs/2104.02424v1
- Date: Tue, 6 Apr 2021 11:07:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-07 18:35:18.242220
- Title: Teacher-Student Adversarial Depth Hallucination to Improve Face
Recognition
- Title(参考訳): 教師と教師の対面深度幻覚による顔の認識向上
- Authors: Hardik Uppal, Alireza Sepas-Moghaddam, Michael Greenspan, Ali Etemad
- Abstract要約: 本稿では,教師・学生生成支援ネットワーク(TS-GAN)を用いて,単一のRGB画像から奥行き画像を生成する。
見当たらないデータセットをうまく一般化するために、私たちはアーキテクチャの2つのコンポーネント、教師と学生を設計します。
完全にトレーニングされた共有ジェネレータは実行時に使用でき、顔認識などの下流アプリケーションのためにRGBからの奥行きを幻覚することができる。
- 参考スコア(独自算出の注目度): 11.885178256393893
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present the Teacher-Student Generative Adversarial Network (TS-GAN) to
generate depth images from a single RGB image in order to boost the recognition
accuracy of face recognition (FR) systems. For our method to generalize well
across unseen datasets, we design two components in the architecture, a teacher
and a student. The teacher, which itself consists of a generator and a
discriminator, learns a latent mapping between input RGB and paired depth
images in a supervised fashion. The student, which consists of two generators
(one shared with the teacher) and a discriminator, learns from new RGB data
with no available paired depth information, for improved generalization. The
fully trained shared generator can then be used in runtime to hallucinate depth
from RGB for downstream applications such as face recognition. We perform
rigorous experiments to show the superiority of TS-GAN over other methods in
generating synthetic depth images. Moreover, face recognition experiments
demonstrate that our hallucinated depth along with the input RGB images boosts
performance across various architectures when compared to a single RGB modality
by average values of +1.2%, +2.6%, and +2.6% for IIIT-D, EURECOM, and LFW
datasets respectively.
- Abstract(参考訳): 本稿では,教師・学生生成支援ネットワーク(TS-GAN)を用いて,単一のRGB画像から深度画像を生成することにより,顔認識(FR)システムの認識精度を向上させる。
未知のデータセットにまたがってうまく一般化する手法のために,我々は,アーキテクチャの2つのコンポーネント,教師と学生を設計した。
教師は、ジェネレータと判別器で構成されており、入力RGBとペア深度画像との潜時マッピングを教師付き方式で学習する。
2つのジェネレータ(1つは教師と共有)と識別器から構成される学生は、ペア深度情報のない新しいRGBデータから学習し、一般化を改善する。
完全にトレーニングされた共有ジェネレータは実行時に使用でき、顔認識などの下流アプリケーションのためにRGBからの奥行きを幻覚することができる。
我々は,合成深度画像の生成において,TS-GANが他の手法よりも優れていることを示す厳密な実験を行った。
さらに、顔認識実験により、入力されたRGB画像と共に、平均値+1.2%、+2.6%、+2.6%のIIIT-D、EURECOM、LFWデータセットに対して、1つのRGBモダリティと比較して、私達の幻覚深度が様々なアーキテクチャで性能を高めることが示された。
関連論文リスト
- Confidence-Aware RGB-D Face Recognition via Virtual Depth Synthesis [48.59382455101753]
2D顔認証は、照明、閉塞、ポーズの変化により、制約のない環境において課題に遭遇する。
近年の研究では、深度情報を組み込んだRGB-D顔認証に焦点が当てられている。
本研究では,まず,深度モデル事前学習のための3次元Morphable Modelsによって生成された多様な深度データセットを構築する。
そこで本研究では,手軽に利用できるRGBと深度モデルを利用したドメイン非依存の事前学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-03-11T09:12:24Z) - Improving 2D face recognition via fine-level facial depth generation and
RGB-D complementary feature learning [0.8223798883838329]
顔深度生成ネットワークと改良されたマルチモーダル補完特徴学習ネットワークを提案する。
Lock3DFaceデータセットとIIIT-Dデータセットの実験は、提案したFFDGNetとI MCFLNetがRGB-D顔認識の精度を向上させることを示した。
論文 参考訳(メタデータ) (2023-05-08T02:33:59Z) - Boosting RGB-D Saliency Detection by Leveraging Unlabeled RGB Images [89.81919625224103]
RGB-D Salient Object Detection (SOD) のための深層モデルの訓練は、しばしば多数のラベル付きRGB-D画像を必要とする。
本稿では、ラベルのないRGB画像を活用するために、Dual-Semi RGB-D Salient Object Detection Network (DS-Net)を提案する。
論文 参考訳(メタデータ) (2022-01-01T03:02:27Z) - Semantic-embedded Unsupervised Spectral Reconstruction from Single RGB
Images in the Wild [48.44194221801609]
この課題に対処するため、我々は、新しい軽量でエンドツーエンドの学習ベースのフレームワークを提案する。
我々は、効率的なカメラスペクトル応答関数推定により、検索されたHS画像から入力されたRGB画像と再投影されたRGB画像の差を徐々に広げる。
提案手法は最先端の教師なし手法よりも優れており,いくつかの設定下では最新の教師付き手法よりも優れている。
論文 参考訳(メタデータ) (2021-08-15T05:19:44Z) - Cross-modality Discrepant Interaction Network for RGB-D Salient Object
Detection [78.47767202232298]
本稿では,RGB-D SODのためのクロスモダリティ離散相互作用ネットワーク(CDINet)を提案する。
2つのコンポーネントは、効果的な相互モダリティ相互作用を実装するように設計されている。
我々のネットワークは、定量的にも質的にも15ドルの最先端の手法より優れています。
論文 参考訳(メタデータ) (2021-08-04T11:24:42Z) - NormalGAN: Learning Detailed 3D Human from a Single RGB-D Image [34.79657678041356]
本稿では,1枚のRGB-D画像から完全かつ詳細な3次元人間を再構築する高速対角学習法を提案する。
一般消費者のRGB-Dセンサーを使用すれば、NurmalGANは20fpsで完全な3D人間の再構築結果を生成することができる。
論文 参考訳(メタデータ) (2020-07-30T09:35:46Z) - Bi-directional Cross-Modality Feature Propagation with
Separation-and-Aggregation Gate for RGB-D Semantic Segmentation [59.94819184452694]
深度情報はRGBD画像のセマンティックセグメンテーションにおいて有用であることが証明されている。
既存のほとんどの研究は、深度測定がRGBピクセルと正確で整合していると仮定し、問題をモーダルな特徴融合としてモデル化している。
本稿では,RGB特徴量応答を効果的に再検討するだけでなく,複数の段階を通して正確な深度情報を抽出し,代わりに2つの補正表現を集約する,統一的で効率的なクロスモダリティガイドを提案する。
論文 参考訳(メタデータ) (2020-07-17T18:35:24Z) - RGB-IR Cross-modality Person ReID based on Teacher-Student GAN Model [20.70796497371778]
本稿では,教師-学生GANモデル(TS-GAN)を提案する。
他のGANベースモデルとは異なり、提案されたモデルはテスト段階ではバックボーンモジュールのみを必要とするため、より効率的でリソースを節約できる。
論文 参考訳(メタデータ) (2020-07-15T02:58:46Z) - Two-Level Attention-based Fusion Learning for RGB-D Face Recognition [21.735238213921804]
RGBと深度という2つの画像モダリティを融合させてRGB-D顔認識を向上する新しいアテンションアウェアメント手法を提案する。
提案手法はまず,畳み込み特徴抽出器を用いて両モードから特徴を抽出する。
これらの特徴は、2層アテンション機構を用いて融合される。
論文 参考訳(メタデータ) (2020-02-29T03:18:52Z) - Supervised and Unsupervised Learning of Parameterized Color Enhancement [112.88623543850224]
我々は、教師なし学習と教師なし学習の両方を用いて、画像翻訳タスクとしての色強調の問題に取り組む。
我々は,MIT-Adobe FiveKベンチマークにおいて,教師付き(ペアデータ)と教師なし(ペアデータ)の2つの画像強調手法と比較して,最先端の結果が得られた。
20世紀初頭の写真や暗黒ビデオフレームに応用することで,本手法の一般化能力を示す。
論文 参考訳(メタデータ) (2019-12-30T13:57:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。