論文の概要: Enhanced 3DMM Attribute Control via Synthetic Dataset Creation Pipeline
- arxiv url: http://arxiv.org/abs/2011.12833v2
- Date: Fri, 11 Dec 2020 04:47:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 03:42:33.728041
- Title: Enhanced 3DMM Attribute Control via Synthetic Dataset Creation Pipeline
- Title(参考訳): 合成データセット生成パイプラインによる3DMM属性制御の強化
- Authors: Wonwoong Cho, Inyeop Lee, David Inouye
- Abstract要約: 我々は、GANのパワーを活用して、ペア化された3次元顔を生成するための新しいパイプラインを開発した。
次に,3次元属性制御の精度と多様性を向上する非線形3次元条件属性制御器を提案する。
- 参考スコア(独自算出の注目度): 2.4309139330334846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While facial attribute manipulation of 2D images via Generative Adversarial
Networks (GANs) has become common in computer vision and graphics due to its
many practical uses, research on 3D attribute manipulation is relatively
undeveloped. Existing 3D attribute manipulation methods are limited because the
same semantic changes are applied to every 3D face. The key challenge for
developing better 3D attribute control methods is the lack of paired training
data in which one attribute is changed while other attributes are held fixed --
e.g., a pair of 3D faces where one is male and the other is female but all
other attributes, such as race and expression, are the same. To overcome this
challenge, we design a novel pipeline for generating paired 3D faces by
harnessing the power of GANs. On top of this pipeline, we then propose an
enhanced non-linear 3D conditional attribute controller that increases the
precision and diversity of 3D attribute control compared to existing methods.
We demonstrate the validity of our dataset creation pipeline and the superior
performance of our conditional attribute controller via quantitative and
qualitative evaluations.
- Abstract(参考訳): generative adversarial networks (gans) による2d画像の表情属性操作は,その実用性からコンピュータビジョンやグラフィックスにおいて一般的である一方,3d属性操作の研究は比較的発展していない。
既存の3D属性操作方法は、同じ意味変化が各3D顔に適用されるため、制限されている。
優れた3d属性制御手法を開発する上での鍵となる課題は、ある属性が固定されている間、他の属性が固定されている間、ある属性が変更されるペア化されたトレーニングデータがないことだ。
この課題を克服するために,ganのパワーを利用して対の3d顔を生成する新しいパイプラインを設計する。
このパイプライン上で,既存の手法と比較して3次元属性制御の精度と多様性を向上する,非線形3次元条件属性制御の強化を提案する。
定量的および定性評価により,データセット生成パイプラインの有効性と条件属性制御の優れた性能を示す。
関連論文リスト
- Sculpt3D: Multi-View Consistent Text-to-3D Generation with Sparse 3D Prior [57.986512832738704]
本稿では,2次元拡散モデルを再学習することなく,抽出した参照オブジェクトから3次元先行を明示的に注入する,電流パイプラインを備えた新しいフレームワークSculpt3Dを提案する。
具体的には、スパース線サンプリングによるキーポイントの監督により、高品質で多様な3次元形状を保証できることを実証する。
これら2つの分離された設計は、参照オブジェクトからの3D情報を利用して、2D拡散モデルの生成品質を保ちながら、3Dオブジェクトを生成する。
論文 参考訳(メタデータ) (2024-03-14T07:39:59Z) - AttriHuman-3D: Editable 3D Human Avatar Generation with Attribute
Decomposition and Indexing [79.38471599977011]
編集可能な3次元人体生成モデルであるAttriHuman-3Dを提案する。
属性空間全体のすべての属性を生成し、6つの特徴平面を分解し、異なる属性インデックスで操作する。
我々のモデルは、異なる属性間の強い絡み合いを提供し、きめ細かい画像編集を可能にし、高品質な3Dアバターを生成する。
論文 参考訳(メタデータ) (2023-12-03T03:20:10Z) - Unpaired Multi-domain Attribute Translation of 3D Facial Shapes with a
Square and Symmetric Geometric Map [23.461476902880584]
本稿では3次元顔属性変換のための学習フレームワークを提案する。
我々は3次元形状表現に新しい幾何学的マップを使用し、それをエンド・ツー・エンドな生成対角ネットワークに埋め込む。
マルチドメイン属性変換には,統一的かつ不公平な学習フレームワークを採用している。
論文 参考訳(メタデータ) (2023-08-25T08:37:55Z) - Guide3D: Create 3D Avatars from Text and Image Guidance [55.71306021041785]
Guide3Dは拡散モデルに基づく3Dアバター生成のためのテキスト・画像誘導生成モデルである。
我々のフレームワークは、トポロジカルかつ構造的に正しい幾何と高分解能なテクスチャを生成する。
論文 参考訳(メタデータ) (2023-08-18T17:55:47Z) - UniG3D: A Unified 3D Object Generation Dataset [75.49544172927749]
UniG3Dは、ShapeNetデータセット上に普遍的なデータ変換パイプラインを用いて構築された、統一された3Dオブジェクト生成データセットである。
このパイプラインは、各生の3Dモデルを包括的なマルチモーダルデータ表現に変換する。
データセットのデータソースの選択は、そのスケールと品質に基づいています。
論文 参考訳(メタデータ) (2023-06-19T07:03:45Z) - NeRF-GAN Distillation for Efficient 3D-Aware Generation with
Convolutions [97.27105725738016]
GAN(Generative Adversarial Networks)のようなニューラルラジアンスフィールド(NeRF)と生成モデルの統合は、単一ビュー画像から3D認識生成を変換した。
提案手法は,ポーズ条件付き畳み込みネットワークにおいて,事前学習したNeRF-GANの有界遅延空間を再利用し,基礎となる3次元表現に対応する3D一貫性画像を直接生成する手法である。
論文 参考訳(メタデータ) (2023-03-22T18:59:48Z) - Next3D: Generative Neural Texture Rasterization for 3D-Aware Head
Avatars [36.4402388864691]
3D-Aware Generative Adversarial Network (GANs) は, 単一視点2D画像のコレクションのみを用いて, 高忠実かつ多視点の顔画像を合成する。
最近の研究は、3D Morphable Face Model (3DMM) を用いて、生成放射場における変形を明示的または暗黙的に記述している。
本研究では,非構造化2次元画像から生成的,高品質,かつ3D一貫性のある顔アバターの教師なし学習のための新しい3D GANフレームワークを提案する。
論文 参考訳(メタデータ) (2022-11-21T06:40:46Z) - Controllable Face Manipulation and UV Map Generation by Self-supervised
Learning [20.10160338724354]
近年の手法は2次元生成モデルと3DMMを組み合わせることで2次元画像の明示的な制御を実現する。
3DMMによるテクスチャ再構築における現実性と明瞭さの欠如により,合成画像と3DMMの描画画像との間には領域ギャップがある。
本研究では,3DMMのパラメータを制御して,事前学習したStyleGANの潜在空間を明示的に編集することを提案する。
論文 参考訳(メタデータ) (2022-09-24T16:49:25Z) - Training and Tuning Generative Neural Radiance Fields for
Attribute-Conditional 3D-Aware Face Generation [69.53142666853502]
GNeRF(Generative Neural Radiance Fields)をベースとした3次元GANは、高品質な画像を生成する際、顕著な能力を示した。
本稿では, 特定の属性ラベルを入力として組み込んだ条件付きGNeRFモデルを提案する。
論文 参考訳(メタデータ) (2022-08-26T10:05:39Z) - Text and Image Guided 3D Avatar Generation and Manipulation [0.0]
テキストや「若い顔」や「驚きの顔」といった画像に基づくプロンプトを用いて、モデルの形状とテクスチャの両方を操作できる新しい3D操作法を提案する。
提案手法は操作に5分しか必要とせず,提案手法の有効性を広範囲な結果と比較で実証する。
論文 参考訳(メタデータ) (2022-02-12T14:37:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。