論文の概要: Dr.3D: Adapting 3D GANs to Artistic Drawings
- arxiv url: http://arxiv.org/abs/2211.16798v1
- Date: Wed, 30 Nov 2022 07:30:43 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-01 16:02:50.962893
- Title: Dr.3D: Adapting 3D GANs to Artistic Drawings
- Title(参考訳): dr.3d: 3d ganを芸術的図面に適応させる
- Authors: Wonjoon Jin, Nuri Ryu, Geonung Kim, Seung-Hwan Baek, Sunghyun Cho
- Abstract要約: Dr.3Dは、既存の3D GANを芸術的図面に適応させる新しい適応アプローチである。
Dr.3Dは、幾何学的曖昧性を扱うための3つの新しいコンポーネントを備えている: 変形対応の3D合成ネットワーク、ポーズ推定と画像合成の交互適応、および幾何学的先行である。
- 参考スコア(独自算出の注目度): 18.02433252623283
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While 3D GANs have recently demonstrated the high-quality synthesis of
multi-view consistent images and 3D shapes, they are mainly restricted to
photo-realistic human portraits. This paper aims to extend 3D GANs to a
different, but meaningful visual form: artistic portrait drawings. However,
extending existing 3D GANs to drawings is challenging due to the inevitable
geometric ambiguity present in drawings. To tackle this, we present Dr.3D, a
novel adaptation approach that adapts an existing 3D GAN to artistic drawings.
Dr.3D is equipped with three novel components to handle the geometric
ambiguity: a deformation-aware 3D synthesis network, an alternating adaptation
of pose estimation and image synthesis, and geometric priors. Experiments show
that our approach can successfully adapt 3D GANs to drawings and enable
multi-view consistent semantic editing of drawings.
- Abstract(参考訳): 3D GANは、最近、マルチビュー一貫性のある画像と3D形状の高品質な合成を実証した。
本論文は、3D GANを異なるが有意義な視覚形式に拡張することを目的としている。
しかし、既存の3D GANを図面に拡張することは、図面に現れる必然的な幾何学的曖昧さのために困難である。
そこで我々は,既存の3D GANを芸術的図面に適応させる新しい適応手法Dr.3Dを提案する。
Dr.3Dは、幾何学的曖昧性を扱うための3つの新しいコンポーネントを備えている: 変形対応の3D合成ネットワーク、ポーズ推定と画像合成の交互適応、および幾何学的先行である。
実験により,本手法は図面に3D GANを適応させ,図面の多視点一貫した意味的編集を可能にする。
関連論文リスト
- En3D: An Enhanced Generative Model for Sculpting 3D Humans from 2D
Synthetic Data [36.51674664590734]
本研究では,高品質な3次元アバターの小型化を図ったEn3Dを提案する。
従来の3Dデータセットの不足や、視角が不均衡な限られた2Dコレクションと異なり、本研究の目的は、ゼロショットで3D人間を作れる3Dの開発である。
論文 参考訳(メタデータ) (2024-01-02T12:06:31Z) - GeoDream: Disentangling 2D and Geometric Priors for High-Fidelity and
Consistent 3D Generation [66.46683554587352]
そこで,GeoDreamは,2次元拡散プリエントを持つ明示的な一般化された3Dプリエントを組み込んだ新しい手法である。
具体的には,まず多視点拡散モデルを用いてポーズ画像を生成し,予測画像からコスト容積を構築する。
さらに,3次元の幾何学的先行性を利用して,不整合設計による2次元拡散先行性における3次元認識の大きな可能性を解き放つことを提案する。
論文 参考訳(メタデータ) (2023-11-29T15:48:48Z) - HyperStyle3D: Text-Guided 3D Portrait Stylization via Hypernetworks [101.36230756743106]
本論文は,2次元画像の中間表現として,2次元領域と3次元領域を3次元フィールドで橋渡しする3次元GANの成功に着想を得たものである。
本稿では,3次元ポートレートスタイリングのための3次元認識型GANをベースとしたHyperStyle3Dという新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-19T07:22:05Z) - PAniC-3D: Stylized Single-view 3D Reconstruction from Portraits of Anime
Characters [29.107457721261387]
提案するPAniC-3Dは, (ani)me (c)haractersの図形(p)ortraitsから直接スタイリングされた3D文字を再構成するシステムである。
論文 参考訳(メタデータ) (2023-03-25T23:36:17Z) - 3DAvatarGAN: Bridging Domains for Personalized Editable Avatars [75.31960120109106]
3D-GANは、一貫した構造を持つ大規模データセットのトレーニングにより、幾何学とテクスチャを合成する。
本稿では,ソースドメインが事前訓練された3D-GANであり,ターゲットドメインが2D-GANである適応フレームワークを提案する。
本稿では,芸術領域の誇張された幾何学をモデル化するための変形に基づく手法について述べる。
論文 参考訳(メタデータ) (2023-01-06T19:58:47Z) - 3DHumanGAN: 3D-Aware Human Image Generation with 3D Pose Mapping [37.14866512377012]
3DHumanGAN(3DHumanGAN)は、全身の人間の写実的な画像を合成する3D対応の対向ネットワークである。
本稿では,3次元ポーズマッピングネットワークによって2次元畳み込みバックボーンを変調する新しいジェネレータアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-12-14T17:59:03Z) - XDGAN: Multi-Modal 3D Shape Generation in 2D Space [60.46777591995821]
本稿では,3次元形状をコンパクトな1チャネル幾何画像に変換し,StyleGAN3と画像間翻訳ネットワークを利用して2次元空間で3次元オブジェクトを生成する手法を提案する。
生成された幾何学画像は素早く3Dメッシュに変換し、リアルタイムな3Dオブジェクト合成、可視化、インタラクティブな編集を可能にする。
近年の3次元生成モデルと比較して,より高速かつ柔軟な3次元形状生成,単一ビュー再構成,形状操作などの様々なタスクにおいて,本手法が有効であることを示す。
論文 参考訳(メタデータ) (2022-10-06T15:54:01Z) - Efficient Geometry-aware 3D Generative Adversarial Networks [50.68436093869381]
既存の3D GANは計算集約的であるか、3D一貫性のない近似を行う。
本研究では、3D GANの計算効率と画質をこれらの近似に頼らずに改善する。
本稿では,高解像度のマルチビュー一貫性画像だけでなく,高品質な3次元形状をリアルタイムに合成する,表現型ハイブリッド・明示型ネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-12-15T08:01:43Z) - Realistic Image Synthesis with Configurable 3D Scene Layouts [59.872657806747576]
本稿では,3次元シーンレイアウトに基づくリアルな画像合成手法を提案する。
提案手法では, セマンティッククラスラベルを入力として3Dシーンを抽出し, 3Dシーンの描画ネットワークを訓練する。
訓練された絵画ネットワークにより、入力された3Dシーンのリアルな外観の画像を描画し、操作することができる。
論文 参考訳(メタデータ) (2021-08-23T09:44:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。