論文の概要: EFHQ: Multi-purpose ExtremePose-Face-HQ dataset
- arxiv url: http://arxiv.org/abs/2312.17205v4
- Date: Thu, 11 Apr 2024 18:48:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-15 19:25:50.667498
- Title: EFHQ: Multi-purpose ExtremePose-Face-HQ dataset
- Title(参考訳): EFHQ: 多目的ExtremePose-Face-HQデータセット
- Authors: Trung Tuan Dao, Duc Hong Vu, Cuong Pham, Anh Tran,
- Abstract要約: この研究は、Extreme Pose Face High-Qualityデータセット(EFHQ)と呼ばれる新しいデータセットを導入し、極端なポーズで顔の最大450kの高品質な画像を含む。
このような膨大なデータセットを生成するために、我々は、新しく精巧なデータセット処理パイプラインを使用して、2つの公開データセットをキュレートする。
我々のデータセットは、顔合成と2D/3D対応のGAN、拡散ベースの顔生成、顔の再現など、さまざまな顔関連タスクに関する既存のデータセットを補完することができる。
- 参考スコア(独自算出の注目度): 1.8194090162317431
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The existing facial datasets, while having plentiful images at near frontal views, lack images with extreme head poses, leading to the downgraded performance of deep learning models when dealing with profile or pitched faces. This work aims to address this gap by introducing a novel dataset named Extreme Pose Face High-Quality Dataset (EFHQ), which includes a maximum of 450k high-quality images of faces at extreme poses. To produce such a massive dataset, we utilize a novel and meticulous dataset processing pipeline to curate two publicly available datasets, VFHQ and CelebV-HQ, which contain many high-resolution face videos captured in various settings. Our dataset can complement existing datasets on various facial-related tasks, such as facial synthesis with 2D/3D-aware GAN, diffusion-based text-to-image face generation, and face reenactment. Specifically, training with EFHQ helps models generalize well across diverse poses, significantly improving performance in scenarios involving extreme views, confirmed by extensive experiments. Additionally, we utilize EFHQ to define a challenging cross-view face verification benchmark, in which the performance of SOTA face recognition models drops 5-37% compared to frontal-to-frontal scenarios, aiming to stimulate studies on face recognition under severe pose conditions in the wild.
- Abstract(参考訳): 既存の顔データセットは、正面近のビューで豊富な画像を持っているが、極端な頭部ポーズのイメージが欠けているため、プロファイルやピッチされた顔を扱う際に、ディープラーニングモデルのパフォーマンスが低下する。
この研究は、Extreme Pose Face High-Quality Dataset (EFHQ)と呼ばれる新しいデータセットを導入することで、このギャップに対処することを目的としている。
このような膨大なデータセットを生成するために、我々は、新しく精巧なデータセット処理パイプラインを使用して、さまざまな設定でキャプチャされた高解像度の顔ビデオを含む、VFHQとCelebV-HQの2つの公開データセットをキュレートする。
我々のデータセットは、顔合成と2D/3D対応のGAN、拡散ベースの顔生成、顔の再現など、さまざまな顔関連タスクに関する既存のデータセットを補完することができる。
具体的には、EFHQを使用したトレーニングは、モデルがさまざまなポーズにまたがって適切に一般化し、極端なビューを含むシナリオのパフォーマンスを大幅に向上するのに役立つ。
さらに、我々はEFHQを用いて、正面から正面までのシナリオと比較して、SOTA顔認識モデルの性能が5~37%低下し、野生の厳しいポーズ条件下での顔認識の研究を刺激することを目的とした、挑戦的なクロスビュー顔認証ベンチマークを定義する。
関連論文リスト
- AuthFace: Towards Authentic Blind Face Restoration with Face-oriented Generative Diffusion Prior [13.27748226506837]
ブラインドフェイス修復(BFR)は、コンピュータビジョンにおける基本的な問題である。
最近の研究は、強力な事前訓練されたテキスト・ツー・イメージ(T2I)拡散モデルによる顔画像の先行性に依存している。
本稿では,顔指向生成拡散を先行して探索することにより,顔復元の精度を高めるAuthFaceを提案する。
論文 参考訳(メタデータ) (2024-10-13T14:56:13Z) - DiffusionFace: Towards a Comprehensive Dataset for Diffusion-Based Face Forgery Analysis [71.40724659748787]
DiffusionFaceは、最初の拡散ベースのフェイスフォージェリーデータセットである。
非条件およびテキストガイドの顔画像生成、Img2Img、Inpaint、Diffusionベースの顔交換アルゴリズムなど、さまざまなフォージェリーカテゴリをカバーする。
重要なメタデータと、評価のための実世界のインターネットソースの偽顔画像データセットを提供する。
論文 参考訳(メタデータ) (2024-03-27T11:32:44Z) - Arc2Face: A Foundation Model for ID-Consistent Human Faces [95.00331107591859]
Arc2Faceは、ID条件のフェイスファンデーションモデルである。
既存のモデルと無矛盾の顔類似度で、多様なフォトリアリスティック画像を生成することができる。
論文 参考訳(メタデータ) (2024-03-18T10:32:51Z) - Multiface: A Dataset for Neural Face Rendering [108.44505415073579]
本研究では,新しいマルチビュー,高解像度のヒューマン・フェイス・データセットであるMultifaceを提案する。
顔のパフォーマンスの高解像度同期映像をキャプチャする大規模なマルチカメラ装置であるMugsyを紹介する。
Multifaceの目的は、学術コミュニティにおける高品質データへのアクセシビリティのギャップを埋め、VRテレプレゼンスの研究を可能にすることである。
論文 参考訳(メタデータ) (2022-07-22T17:55:39Z) - Latents2Segments: Disentangling the Latent Space of Generative Models
for Semantic Segmentation of Face Images [29.496302682744133]
我々は、SOTAマルチクラス顔分割モデルで必要とされる事前処理や複雑な前処理処理を廃止する。
本稿では,CelebAMask-HQおよびHELENデータセットにおけるモデルの性能について述べる。
論文 参考訳(メタデータ) (2022-07-05T08:09:15Z) - Joint Face Image Restoration and Frontalization for Recognition [79.78729632975744]
現実世界のシナリオでは、大きなポーズ、悪い照明、低解像度、ぼやけ、ノイズなど、多くの要因が顔認識性能を損なう可能性がある。
それまでの努力は通常、まず品質の低い顔から高品質な顔に復元し、次に顔認識を行う。
与えられた低品質の顔からフロンダル化された高品質の顔を復元する多段階顔復元モデルを提案する。
論文 参考訳(メタデータ) (2021-05-12T03:52:41Z) - SuperFront: From Low-resolution to High-resolution Frontal Face
Synthesis [65.35922024067551]
本稿では,前頭前頭部を保存した高品質なアイデンティティを生成できるGANモデルを提案する。
具体的には,高分解能(HR)面を1対多のLR面から様々なポーズで合成するSuperFront-GANを提案する。
超高解像度のサイドビューモジュールをSF-GANに統合し、人事空間におけるアイデンティティ情報とサイドビューの詳細を保存します。
論文 参考訳(メタデータ) (2020-12-07T23:30:28Z) - 3D-Aided Data Augmentation for Robust Face Understanding [40.73929372872909]
照明条件の異なる複数の視点から3次元顔モデルを用いて現実的な3次元画像を生成する手法を提案する。
実験により,提案した3次元データ拡張法は顔理解タスクの性能と堅牢性を大幅に向上させることが示された。
論文 参考訳(メタデータ) (2020-10-03T01:18:07Z) - Methodology for Building Synthetic Datasets with Virtual Humans [1.5556923898855324]
大規模なデータセットは、ディープニューラルネットワークの改善、ターゲットトレーニングに使用することができる。
特に,100の合成IDからなるデータセットにまたがる複数の2次元画像のレンダリングに3次元形態素顔モデルを用いる。
論文 参考訳(メタデータ) (2020-06-21T10:29:36Z) - DotFAN: A Domain-transferred Face Augmentation Network for Pose and
Illumination Invariant Face Recognition [94.96686189033869]
本稿では,3次元モデルを用いたドメイン転送型顔強調ネットワーク(DotFAN)を提案する。
DotFANは、他のドメインから収集された既存のリッチフェイスデータセットから抽出された知識に基づいて、入力顔の一連の変種を生成することができる。
実験によると、DotFANは、クラス内の多様性を改善するために、小さな顔データセットを増やすのに有益である。
論文 参考訳(メタデータ) (2020-02-23T08:16:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。