論文の概要: 3DStyleNet: Creating 3D Shapes with Geometric and Texture Style
Variations
- arxiv url: http://arxiv.org/abs/2108.12958v1
- Date: Mon, 30 Aug 2021 02:28:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-31 14:54:03.584699
- Title: 3DStyleNet: Creating 3D Shapes with Geometric and Texture Style
Variations
- Title(参考訳): 3DStyleNet:幾何学とテクスチャスタイルのバリエーションで3D形状を作る
- Authors: Kangxue Yin, Jun Gao, Maria Shugrina, Sameh Khamis, Sanja Fidler
- Abstract要約: 本稿では,3次元オブジェクトの幾何学的・テクスチャ的バリエーションを多用する手法を提案する。
提案手法は,多くの新しいスタイルの形状を作成でき,その結果,無駄な3Dコンテンツ作成とスタイルウェアデータ拡張を実現している。
- 参考スコア(独自算出の注目度): 81.45521258652734
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a method to create plausible geometric and texture style
variations of 3D objects in the quest to democratize 3D content creation. Given
a pair of textured source and target objects, our method predicts a part-aware
affine transformation field that naturally warps the source shape to imitate
the overall geometric style of the target. In addition, the texture style of
the target is transferred to the warped source object with the help of a
multi-view differentiable renderer. Our model, 3DStyleNet, is composed of two
sub-networks trained in two stages. First, the geometric style network is
trained on a large set of untextured 3D shapes. Second, we jointly optimize our
geometric style network and a pre-trained image style transfer network with
losses defined over both the geometry and the rendering of the result. Given a
small set of high-quality textured objects, our method can create many novel
stylized shapes, resulting in effortless 3D content creation and style-ware
data augmentation. We showcase our approach qualitatively on 3D content
stylization, and provide user studies to validate the quality of our results.
In addition, our method can serve as a valuable tool to create 3D data
augmentations for computer vision tasks. Extensive quantitative analysis shows
that 3DStyleNet outperforms alternative data augmentation techniques for the
downstream task of single-image 3D reconstruction.
- Abstract(参考訳): 3dコンテンツ作成を民主化するために,3dオブジェクトの多彩な幾何学的・テクスチャ的バリエーションを創り出す手法を提案する。
一対のテクスチャドソースと対象オブジェクトが与えられると、本手法は、対象の全体的な幾何学的スタイルを模倣するために、ソース形状を自然にゆがめる部分認識アフィン変換フィールドを予測する。
さらに、マルチビュー微分可能なレンダラの助けを借りて、ターゲットのテクスチャスタイルをワープされたソースオブジェクトに転送する。
我々のモデルである3DStyleNetは、2つの段階で訓練された2つのサブネットワークで構成されています。
まず、幾何学的スタイルネットワークは、テキストのない大きな3d形状のセットで訓練される。
第2に、幾何学的スタイルネットワークと事前学習された画像スタイル転送ネットワークを共同で最適化し、幾何と結果のレンダリングの両方において損失が定義された。
高品質なテクスチャオブジェクトの小さなセットが与えられた場合,本手法は多くの新しいスタイルの形状を作成でき,その結果,無駄な3Dコンテンツ作成とスタイルウェアデータ拡張を実現している。
我々は,3dコンテンツのスタイライゼーションを定性的に評価するアプローチを示し,その結果の質を検証するためのユーザスタディを提供する。
さらに,本手法はコンピュータビジョンタスクのための3次元データ拡張のための貴重なツールとして機能する。
3DStyleNetは,1次元画像再構成の下流タスクにおいて,代替データ拡張手法よりも優れていた。
関連論文リスト
- DECOLLAGE: 3D Detailization by Controllable, Localized, and Learned Geometry Enhancement [38.719572669042925]
エンドユーザーが機械学習を用いて3次元形状を洗練・詳細化できる3Dモデリング手法を提案する。
詳細をローカライズする能力は、新しいインタラクティブな創造性と応用を可能にする。
論文 参考訳(メタデータ) (2024-09-10T00:51:49Z) - ID-to-3D: Expressive ID-guided 3D Heads via Score Distillation Sampling [96.87575334960258]
ID-to-3D(ID-to-3D)は、不整合表現を用いたIDとテキスト誘導型3次元頭部を生成する方法である。
前例のないアイデンティティ一貫性と高品質なテクスチャと幾何生成を実現する。
論文 参考訳(メタデータ) (2024-05-26T13:36:45Z) - ViewDiff: 3D-Consistent Image Generation with Text-to-Image Models [65.22994156658918]
実世界のデータから1つの認知過程において多視点画像を生成することを学習する手法を提案する。
我々は、任意の視点でより多くの3D一貫性のある画像をレンダリングする自己回帰生成を設計する。
論文 参考訳(メタデータ) (2024-03-04T07:57:05Z) - HyperStyle3D: Text-Guided 3D Portrait Stylization via Hypernetworks [101.36230756743106]
本論文は,2次元画像の中間表現として,2次元領域と3次元領域を3次元フィールドで橋渡しする3次元GANの成功に着想を得たものである。
本稿では,3次元ポートレートスタイリングのための3次元認識型GANをベースとしたHyperStyle3Dという新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-19T07:22:05Z) - 3DAvatarGAN: Bridging Domains for Personalized Editable Avatars [75.31960120109106]
3D-GANは、一貫した構造を持つ大規模データセットのトレーニングにより、幾何学とテクスチャを合成する。
本稿では,ソースドメインが事前訓練された3D-GANであり,ターゲットドメインが2D-GANである適応フレームワークを提案する。
本稿では,芸術領域の誇張された幾何学をモデル化するための変形に基づく手法について述べる。
論文 参考訳(メタデータ) (2023-01-06T19:58:47Z) - Exemplar-Based 3D Portrait Stylization [23.585334925548064]
ワンショット3Dポートレートスタイル転送のための最初のフレームワークを提示する。
形状が誇張され、テクスチャがスタイリングされた3Dフェイスモデルを生成することができる。
本手法は,異なるスタイルの芸術的効果を強く達成し,既存の手法より優れる。
論文 参考訳(メタデータ) (2021-04-29T17:59:54Z) - 3DSNet: Unsupervised Shape-to-Shape 3D Style Transfer [66.48720190245616]
本稿では,3次元オブジェクト間のスタイル伝達のための学習に基づくアプローチを提案する。
提案手法は点雲とメッシュの両方で新しい3次元形状を合成することができる。
選択したドメインのマルチモーダルなスタイル分布を暗黙的に学習するために,我々の手法を拡張した。
論文 参考訳(メタデータ) (2020-11-26T16:59:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。