論文の概要: Head3D: Complete 3D Head Generation via Tri-plane Feature Distillation
- arxiv url: http://arxiv.org/abs/2303.15892v1
- Date: Tue, 28 Mar 2023 11:12:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 15:26:24.319333
- Title: Head3D: Complete 3D Head Generation via Tri-plane Feature Distillation
- Title(参考訳): Head3D:トリプレーン機能蒸留による完全3Dヘッドジェネレーション
- Authors: Yuhao Cheng and Yichao Yan and Wenhan Zhu and Ye Pan and Bowen Pan and
Xiaokang Yang
- Abstract要約: 現在のフルヘッド生成法では、モデルをトレーニングするために多数の3Dスキャンやマルチビューイメージが必要となる。
マルチビュー画像に制限のある完全3Dヘッドを生成する手法であるHead3Dを提案する。
本モデルは,写真リアルなレンダリングと高品質な幾何表現により,コスト効率と多種多様な完全ヘッド生成を実現する。
- 参考スコア(独自算出の注目度): 56.267877301135634
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Head generation with diverse identities is an important task in computer
vision and computer graphics, widely used in multimedia applications. However,
current full head generation methods require a large number of 3D scans or
multi-view images to train the model, resulting in expensive data acquisition
cost. To address this issue, we propose Head3D, a method to generate full 3D
heads with limited multi-view images. Specifically, our approach first extracts
facial priors represented by tri-planes learned in EG3D, a 3D-aware generative
model, and then proposes feature distillation to deliver the 3D frontal faces
into complete heads without compromising head integrity. To mitigate the domain
gap between the face and head models, we present dual-discriminators to guide
the frontal and back head generation, respectively. Our model achieves
cost-efficient and diverse complete head generation with photo-realistic
renderings and high-quality geometry representations. Extensive experiments
demonstrate the effectiveness of our proposed Head3D, both qualitatively and
quantitatively.
- Abstract(参考訳): 多様なアイデンティティを持つヘッドジェネレーションは、マルチメディアアプリケーションで広く使われているコンピュータビジョンとコンピュータグラフィックスにおいて重要なタスクである。
しかし、現在のフルヘッド生成手法では、モデルをトレーニングするために大量の3dスキャンやマルチビュー画像を必要とするため、高価なデータ取得コストがかかる。
この問題に対処するため,我々は,マルチビュー画像に制限のあるフル3dヘッドを生成するhead3dを提案する。
具体的には、まず3d認識生成モデルeg3dで学習した三面体に代表される顔前野を抽出し、次に3d前頭面を完全頭部に移植する機能蒸留を提案する。
顔モデルと頭部モデルの領域ギャップを緩和するために,両判別器を用いて前頭と後頭の生成を誘導する。
本モデルは,写真リアルなレンダリングと高品質な幾何表現により,コスト効率と多種多様な完全ヘッド生成を実現する。
提案するhead3dの有効性を,質的および定量的に実証した。
関連論文リスト
- Towards Native Generative Model for 3D Head Avatar [20.770534728078623]
限られた3Dヘッドデータセットから360$circ$フルヘッドのネイティブ生成モデルを学習する方法を示す。
具体的には,360ドル周の人体頭部を生成するために,様々な表現を効果的に活用する方法について検討した。
提案されたモデルとアーティストが設計したデータセットが、限られた3Dデータセットからネイティブな生成3Dヘッドモデルを学習するための将来の研究を刺激することを期待しています。
論文 参考訳(メタデータ) (2024-10-02T04:04:10Z) - GPHM: Gaussian Parametric Head Model for Monocular Head Avatar Reconstruction [47.113910048252805]
高忠実度3D人間の頭部アバターは、VR/AR、デジタル人間、映画製作に不可欠である。
近年の進歩は、変形可能な顔モデルを利用して、様々なアイデンティティと表現を表現するアニメーションヘッドアバターを生成している。
本稿では,人間の頭部の複雑さを正確に表現するために,三次元ガウスを用いた3次元ガウスパラメトリックヘッドモデルを提案する。
論文 参考訳(メタデータ) (2024-07-21T06:03:11Z) - ID-to-3D: Expressive ID-guided 3D Heads via Score Distillation Sampling [96.87575334960258]
ID-to-3D(ID-to-3D)は、不整合表現を用いたIDとテキスト誘導型3次元頭部を生成する方法である。
前例のないアイデンティティ一貫性と高品質なテクスチャと幾何生成を実現する。
論文 参考訳(メタデータ) (2024-05-26T13:36:45Z) - AniPortraitGAN: Animatable 3D Portrait Generation from 2D Image
Collections [78.81539337399391]
顔の表情, 頭部ポーズ, 肩の動きを制御可能なポートレート画像を生成するアニマタブルな3D認識型GANを提案する。
これは、3Dやビデオデータを使用しない非構造化2次元画像コレクションで訓練された生成モデルである。
生成した顔の質を向上させるために,デュアルカメラレンダリングと対角学習方式を提案する。
論文 参考訳(メタデータ) (2023-09-05T12:44:57Z) - Articulated 3D Head Avatar Generation using Text-to-Image Diffusion
Models [107.84324544272481]
多様な頭部アバターを合成する能力は、拡張現実、撮影、教育など、多くの応用に不可欠である。
テキスト誘導型3Dオブジェクト生成に関する最近の研究は、これらのニーズに対処する上で大きな可能性を秘めている。
拡散に基づく頭部アバターは,この課題に対する最先端のアプローチよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-10T19:15:32Z) - Generalizable One-shot Neural Head Avatar [90.50492165284724]
本研究では,1枚の画像から3次元頭部アバターを再構成し,アニメイトする手法を提案する。
本研究では,一視点画像に基づく識別不能な人物を一般化するだけでなく,顔領域内外における特徴的詳細を捉えるフレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-14T22:33:09Z) - PanoHead: Geometry-Aware 3D Full-Head Synthesis in 360$^{\circ}$ [17.355141949293852]
3次元頭部合成のための既存の3次元生成対向ネットワーク(GAN)は、正面近傍のビューに限られるか、大きなビュー角で3次元の一貫性を維持するのが困難である。
パノヘッド(PanoHead)は、360ドル(約3万3000円)で高画質のフルヘッド画像合成を可能にする最初の3D認識生成モデルである。
論文 参考訳(メタデータ) (2023-03-23T06:54:34Z) - Free-HeadGAN: Neural Talking Head Synthesis with Explicit Gaze Control [54.079327030892244]
Free-HeadGANは、人為的なニューラルトーキングヘッド合成システムである。
本研究では,3次元顔のランドマークが不足している顔のモデリングが,最先端の生成性能を達成するのに十分であることを示す。
論文 参考訳(メタデータ) (2022-08-03T16:46:08Z) - Prior-Guided Multi-View 3D Head Reconstruction [28.126115947538572]
従来の多視点ステレオ法は, 頭部構造が不明瞭なり, 毛髪部が不正確であったりするなどの低周波構造に悩まされていた。
この問題に対処するため,我々は事前誘導型暗黙的ニューラルネットワークを提案する。
これらの先行技術を利用することで、復元精度とロバスト性が向上し、高品質な3Dヘッドモデルが実現される。
論文 参考訳(メタデータ) (2021-07-09T07:43:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。