論文の概要: BabyNet: Reconstructing 3D faces of babies from uncalibrated photographs
- arxiv url: http://arxiv.org/abs/2203.05908v1
- Date: Fri, 11 Mar 2022 13:26:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-14 13:04:25.769262
- Title: BabyNet: Reconstructing 3D faces of babies from uncalibrated photographs
- Title(参考訳): 赤ちゃんの写真から3D顔を作るBabyNet
- Authors: Araceli Morales, Antonio R. Porras, Marius George Linguraru, Gemma
Piella, Federico M. Sukno
- Abstract要約: 本研究では, 乳児の3次元顔形状の復元を目的とした3次元顔再構成システム, BabyNetを提案する。
BabyNetは, 1) 3Dグラフ畳み込みオートエンコーダは, 乳児の3D顔形状の潜伏空間を学習し, 2) 移動学習を用いて抽出した代表的特徴に基づいて, 写真を3D潜伏空間にマッピングする2Dエンコーダからなる。
- 参考スコア(独自算出の注目度): 2.926891611888127
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a 3D face reconstruction system that aims at recovering the 3D
facial geometry of babies from uncalibrated photographs, BabyNet. Since the 3D
facial geometry of babies differs substantially from that of adults,
baby-specific facial reconstruction systems are needed. BabyNet consists of two
stages: 1) a 3D graph convolutional autoencoder learns a latent space of the
baby 3D facial shape; and 2) a 2D encoder that maps photographs to the 3D
latent space based on representative features extracted using transfer
learning. In this way, using the pre-trained 3D decoder, we can recover a 3D
face from 2D images. We evaluate BabyNet and show that 1) methods based on
adult datasets cannot model the 3D facial geometry of babies, which proves the
need for a baby-specific method, and 2) BabyNet outperforms classical
model-fitting methods even when a baby-specific 3D morphable model, such as
BabyFM, is used.
- Abstract(参考訳): 本研究では, 乳児の顔形状の復元を目的とした3次元顔再構成システム, BabyNetを提案する。
乳児の3次元顔形状は成体と大きく異なるため,乳児特有の顔再構成システムが必要である。
babynet は2つの段階からなる。
1) 3Dグラフ畳み込みオートエンコーダは、乳児の3D顔形状の潜伏空間を学習し、
2) 移動学習を用いて抽出した代表的特徴に基づいて, 写真を3次元潜在空間にマッピングする2次元エンコーダ。
このように、事前訓練された3Dデコーダを用いて、2D画像から3D顔を取り出すことができる。
BabyNetを評価します。
1) アダルトデータセットに基づく手法では乳児の3次元顔形状をモデル化できないため、乳児特有の方法の必要性が証明される。
2)ベイビーネットは,ベイビーFMのような乳児特有の3次元形態素モデルを用いた場合であっても,従来のモデル適合手法より優れる。
関連論文リスト
- AniPortraitGAN: Animatable 3D Portrait Generation from 2D Image
Collections [78.81539337399391]
顔の表情, 頭部ポーズ, 肩の動きを制御可能なポートレート画像を生成するアニマタブルな3D認識型GANを提案する。
これは、3Dやビデオデータを使用しない非構造化2次元画像コレクションで訓練された生成モデルである。
生成した顔の質を向上させるために,デュアルカメラレンダリングと対角学習方式を提案する。
論文 参考訳(メタデータ) (2023-09-05T12:44:57Z) - Fake It Without Making It: Conditioned Face Generation for Accurate 3D
Face Reconstruction [5.079602839359523]
本稿では,250Kのフォトリアリスティック画像とそれに対応する形状パラメータと深度マップの大規模な合成データセットを生成する手法について述べる。
人間の顔のFLAME 3D Morphable Model(3DMM)から採取した深度マップ上での安定拡散条件により,人種と性別のバランスがとれるようにデザインされた多様な形状の顔画像を生成することができる。
我々は、3Dの監督や手動の3Dアセット作成を必要とせずに、NoWベンチマーク上での競合性能を実現する、SynthFaceでトレーニングされたディープニューラルネットワークであるControlFaceを提案する。
論文 参考訳(メタデータ) (2023-07-25T16:42:06Z) - Articulated 3D Head Avatar Generation using Text-to-Image Diffusion
Models [107.84324544272481]
多様な頭部アバターを合成する能力は、拡張現実、撮影、教育など、多くの応用に不可欠である。
テキスト誘導型3Dオブジェクト生成に関する最近の研究は、これらのニーズに対処する上で大きな可能性を秘めている。
拡散に基づく頭部アバターは,この課題に対する最先端のアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-10T19:15:32Z) - AG3D: Learning to Generate 3D Avatars from 2D Image Collections [96.28021214088746]
本稿では,2次元画像から現実的な3次元人物の新たな逆生成モデルを提案する。
本手法は, 全身型3Dジェネレータを用いて, 体の形状と変形を捉える。
提案手法は, 従来の3次元・調音認識手法よりも幾何的, 外観的に優れていた。
論文 参考訳(メタデータ) (2023-05-03T17:56:24Z) - 3DHumanGAN: 3D-Aware Human Image Generation with 3D Pose Mapping [37.14866512377012]
3DHumanGAN(3DHumanGAN)は、全身の人間の写実的な画像を合成する3D対応の対向ネットワークである。
本稿では,3次元ポーズマッピングネットワークによって2次元畳み込みバックボーンを変調する新しいジェネレータアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-12-14T17:59:03Z) - Building 3D Generative Models from Minimal Data [3.472931603805115]
一つの3Dテンプレート(1人1人ではなく1人1人)で顔の認識が可能であることを示す。
我々は,1つの3次元テンプレートと少数の2次元画像を用いて,3次元顔の分布の学習を可能にする,予備的な教師なし学習フレームワークにモデルを拡張した。
論文 参考訳(メタデータ) (2022-03-04T20:10:50Z) - DensePose 3D: Lifting Canonical Surface Maps of Articulated Objects to
the Third Dimension [71.71234436165255]
DensePose 3Dは2次元画像アノテーションのみから弱い教師付きで再構築を学習できる手法である。
3Dスキャンを必要としないため、DensePose 3Dは異なる動物種などの幅広いカテゴリーの学習に利用できる。
我々は,人間と動物のカテゴリーの合成データと実データの両方をベースラインとして,最先端の非剛体構造と比較し,顕著な改善を示した。
論文 参考訳(メタデータ) (2021-08-31T18:33:55Z) - Model-based 3D Hand Reconstruction via Self-Supervised Learning [72.0817813032385]
シングルビューのRGB画像から3Dハンドを再構成することは、様々な手構成と深さのあいまいさのために困難である。
ポーズ, 形状, テクスチャ, カメラ視点を共同で推定できる, 自己教師型3Dハンド再構成ネットワークであるS2HANDを提案する。
初めて手動アノテーションを使わずに、正確な3D手の再構築ネットワークを訓練できることを実証しました。
論文 参考訳(メタデータ) (2021-03-22T10:12:43Z) - Survey on 3D face reconstruction from uncalibrated images [3.004265855622696]
顔の正確な表現を提供するにもかかわらず、3Dの顔画像は2D画像よりも複雑である。
3次元から2次元の顔の復元問題は誤りであり、解空間を制限するためには事前の知識が必要である。
本研究では,過去10年間に提案されてきた3次元顔の再構成手法について,制御不能な条件下で撮影された2次元画像のみを使用するものに着目した。
論文 参考訳(メタデータ) (2020-11-11T12:48:11Z) - Do 2D GANs Know 3D Shape? Unsupervised 3D shape reconstruction from 2D
Image GANs [156.1209884183522]
GANのような最先端の2D生成モデルは、自然像多様体のモデリングにおいて前例のない品質を示している。
本稿では,RGB画像のみをトレーニングした市販の2D GANから3次元幾何学的手がかりを直接マイニングする試みについて紹介する。
論文 参考訳(メタデータ) (2020-11-02T09:38:43Z) - Reconstructing A Large Scale 3D Face Dataset for Deep 3D Face
Identification [9.159921061636695]
本稿では,2次元支援型深部3次元顔認証の枠組みを提案する。
特に,大規模な2次元顔データベースから数百万の3次元顔スキャンを再構築することを提案する。
提案手法はFRGC v2.0, Bosphorus, BU-3DFEの3次元顔データベース上で, 最先端のランク1スコアを実現する。
論文 参考訳(メタデータ) (2020-10-16T13:48:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。