論文の概要: Exemplar-Based 3D Portrait Stylization
- arxiv url: http://arxiv.org/abs/2104.14559v1
- Date: Thu, 29 Apr 2021 17:59:54 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-30 12:48:32.698209
- Title: Exemplar-Based 3D Portrait Stylization
- Title(参考訳): exemplarに基づく3次元ポートレートスタイライゼーション
- Authors: Fangzhou Han, Shuquan Ye, Mingming He, Menglei Chai and Jing Liao
- Abstract要約: ワンショット3Dポートレートスタイル転送のための最初のフレームワークを提示する。
形状が誇張され、テクスチャがスタイリングされた3Dフェイスモデルを生成することができる。
本手法は,異なるスタイルの芸術的効果を強く達成し,既存の手法より優れる。
- 参考スコア(独自算出の注目度): 23.585334925548064
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Exemplar-based portrait stylization is widely attractive and highly desired.
Despite recent successes, it remains challenging, especially when considering
both texture and geometric styles. In this paper, we present the first
framework for one-shot 3D portrait style transfer, which can generate 3D face
models with both the geometry exaggerated and the texture stylized while
preserving the identity from the original content. It requires only one
arbitrary style image instead of a large set of training examples for a
particular style, provides geometry and texture outputs that are fully
parameterized and disentangled, and enables further graphics applications with
the 3D representations. The framework consists of two stages. In the first
geometric style transfer stage, we use facial landmark translation to capture
the coarse geometry style and guide the deformation of the dense 3D face
geometry. In the second texture style transfer stage, we focus on performing
style transfer on the canonical texture by adopting a differentiable renderer
to optimize the texture in a multi-view framework. Experiments show that our
method achieves robustly good results on different artistic styles and
outperforms existing methods. We also demonstrate the advantages of our method
via various 2D and 3D graphics applications. Project page is
https://halfjoe.github.io/projs/3DPS/index.html.
- Abstract(参考訳): 模範的なポートレートスタイリングは広く魅力的で、非常に望ましい。
近年の成功にもかかわらず、特にテクスチャと幾何学的スタイルの両方を考えると、挑戦的なままである。
本稿では,原文コンテンツから身元を保存しつつ,テクスチャを大げさに表現した3次元顔モデルを生成することができる,ワンショット3次元肖像画スタイル転送のための最初のフレームワークを提案する。
特定のスタイルに対するトレーニングの大規模な例ではなく、任意のスタイルのイメージをひとつだけ必要とし、完全にパラメータ化され、切り離された幾何学とテクスチャの出力を提供し、3D表現によるさらなるグラフィックアプリケーションを可能にする。
フレームワークは2つのステージで構成される。
第1段目では, 粗い形状を捉え, 濃密な3次元顔形状の変形を導くために, 顔のランドマーク変換を用いる。
第2のテクスチャスタイル転送段階では、多視点フレームワークにおけるテクスチャの最適化に微分可能なレンダラを採用することにより、標準テクスチャのスタイル転送を行う。
実験により, 異なる芸術的スタイルに対してロバストに優れた結果が得られ, 既存の手法を上回った。
また,本手法の利点を,様々な2次元および3次元グラフィックアプリケーションを用いて示す。
プロジェクトページはhttps://halfjoe.github.io/projs/3DPS/index.html。
関連論文リスト
- LeGO: Leveraging a Surface Deformation Network for Animatable Stylized Face Generation with One Example [5.999050119438177]
所望のトポロジを持つ高度にスタイリングされた3次元顔モデルを作成する方法を提案する。
提案手法は3DMMを用いて表面変形ネットワークをトレーニングし,その領域を微分可能なメッシュと方向CLIP損失を用いて対象に翻訳する。
ネットワークは、差別化可能なメッシュと指向的なCLIP損失を使用して、ターゲットのスタイルを模倣することにより、3Dフェイスメッシュのスタイリングを実現する。
論文 参考訳(メタデータ) (2024-03-22T14:20:54Z) - DeformToon3D: Deformable 3D Toonification from Neural Radiance Fields [96.0858117473902]
3Dトーン化には、テクスチャ化された幾何学とテクスチャで、アートドメインのスタイルをターゲットの3D顔に転送することが含まれる。
階層型3D GANに適した効果的なトーン化フレームワークであるDeformToon3Dを提案する。
提案手法は3次元トーン化を幾何学とテクスチャスタイリングのサブプロブレムに分解し,元の潜伏空間をよりよく保存する。
論文 参考訳(メタデータ) (2023-09-08T16:17:45Z) - Guide3D: Create 3D Avatars from Text and Image Guidance [55.71306021041785]
Guide3Dは拡散モデルに基づく3Dアバター生成のためのテキスト・画像誘導生成モデルである。
我々のフレームワークは、トポロジカルかつ構造的に正しい幾何と高分解能なテクスチャを生成する。
論文 参考訳(メタデータ) (2023-08-18T17:55:47Z) - HyperStyle3D: Text-Guided 3D Portrait Stylization via Hypernetworks [101.36230756743106]
本論文は,2次元画像の中間表現として,2次元領域と3次元領域を3次元フィールドで橋渡しする3次元GANの成功に着想を得たものである。
本稿では,3次元ポートレートスタイリングのための3次元認識型GANをベースとしたHyperStyle3Dという新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-19T07:22:05Z) - 3D Face Arbitrary Style Transfer [18.09280257466941]
FDST(Face-Guided Dual Style Transfer)という新しい手法を提案する。
FDSTは3Dデカップリングモジュールを使用して顔の形状とテクスチャを分離する。
FDSTは、領域制御可能なスタイル転送、高忠実な顔テクスチャ再構築、芸術的な顔再構成など、多くの下流タスクに適用可能であることを示す。
論文 参考訳(メタデータ) (2023-03-14T08:51:51Z) - 3DAvatarGAN: Bridging Domains for Personalized Editable Avatars [75.31960120109106]
3D-GANは、一貫した構造を持つ大規模データセットのトレーニングにより、幾何学とテクスチャを合成する。
本稿では,ソースドメインが事前訓練された3D-GANであり,ターゲットドメインが2D-GANである適応フレームワークを提案する。
本稿では,芸術領域の誇張された幾何学をモデル化するための変形に基づく手法について述べる。
論文 参考訳(メタデータ) (2023-01-06T19:58:47Z) - StyleMesh: Style Transfer for Indoor 3D Scene Reconstructions [11.153966202832933]
屋内シーンのメッシュ再構成にスタイル転送を適用する。
これにより、お気に入りのアーティストのスタイルで描かれた3D環境を体験するといったVRアプリケーションが可能になる。
論文 参考訳(メタデータ) (2021-12-02T18:59:59Z) - 3DStyleNet: Creating 3D Shapes with Geometric and Texture Style
Variations [81.45521258652734]
本稿では,3次元オブジェクトの幾何学的・テクスチャ的バリエーションを多用する手法を提案する。
提案手法は,多くの新しいスタイルの形状を作成でき,その結果,無駄な3Dコンテンツ作成とスタイルウェアデータ拡張を実現している。
論文 参考訳(メタデータ) (2021-08-30T02:28:31Z) - 3DSNet: Unsupervised Shape-to-Shape 3D Style Transfer [66.48720190245616]
本稿では,3次元オブジェクト間のスタイル伝達のための学習に基づくアプローチを提案する。
提案手法は点雲とメッシュの両方で新しい3次元形状を合成することができる。
選択したドメインのマルチモーダルなスタイル分布を暗黙的に学習するために,我々の手法を拡張した。
論文 参考訳(メタデータ) (2020-11-26T16:59:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。