論文の概要: 3DSNet: Unsupervised Shape-to-Shape 3D Style Transfer
- arxiv url: http://arxiv.org/abs/2011.13388v4
- Date: Tue, 18 May 2021 09:17:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 08:28:14.913082
- Title: 3DSNet: Unsupervised Shape-to-Shape 3D Style Transfer
- Title(参考訳): 3DSNet: 教師なし形状の3Dスタイル転送
- Authors: Mattia Segu, Margarita Grinvald, Roland Siegwart, Federico Tombari
- Abstract要約: 本稿では,3次元オブジェクト間のスタイル伝達のための学習に基づくアプローチを提案する。
提案手法は点雲とメッシュの両方で新しい3次元形状を合成することができる。
選択したドメインのマルチモーダルなスタイル分布を暗黙的に学習するために,我々の手法を拡張した。
- 参考スコア(独自算出の注目度): 66.48720190245616
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transferring the style from one image onto another is a popular and widely
studied task in computer vision. Yet, style transfer in the 3D setting remains
a largely unexplored problem. To our knowledge, we propose the first
learning-based approach for style transfer between 3D objects based on
disentangled content and style representations. The proposed method can
synthesize new 3D shapes both in the form of point clouds and meshes, combining
the content and style of a source and target 3D model to generate a novel shape
that resembles in style the target while retaining the source content.
Furthermore, we extend our technique to implicitly learn the multimodal style
distribution of the chosen domains. By sampling style codes from the learned
distributions, we increase the variety of styles that our model can confer to
an input shape. Experimental results validate the effectiveness of the proposed
3D style transfer method on a number of benchmarks. The implementation of our
framework will be released upon acceptance.
- Abstract(参考訳): あるイメージから別のイメージへスタイルを転送することは、コンピュータビジョンにおいて広く研究されている課題である。
しかし、3d設定でのスタイル転送は、ほとんど未解決の問題である。
そこで本研究では,不整合コンテンツとスタイル表現に基づく3次元オブジェクト間のスタイル伝達のための学習ベースアプローチを提案する。
提案手法は, 点雲とメッシュの2つの形状を合成し, ソースとターゲットの3dモデルの内容とスタイルを組み合わせて, ソースの内容を保持しながら, ターゲットのスタイルに類似した新たな形状を生成する。
さらに,提案手法を拡張して,選択した領域のマルチモーダル分布を暗黙的に学習する。
学習した分布からスタイルコードをサンプリングすることで、モデルが入力形状に表現できるスタイルの種類を増加させます。
実験により,多くのベンチマークにおいて提案手法の有効性が検証された。
私たちのフレームワークの実装は受け入れ次第リリースします。
関連論文リスト
- Towards Multi-View Consistent Style Transfer with One-Step Diffusion via Vision Conditioning [12.43848969320173]
提案手法により生成した異なる視点からのスティル化画像は、構造的整合性が良く、歪みも少ない、優れた視覚的品質を実現する。
本手法は,3次元情報のないスタイリング画像における構造情報と多視点整合性を効果的に保存する。
論文 参考訳(メタデータ) (2024-11-15T12:02:07Z) - StyleSplat: 3D Object Style Transfer with Gaussian Splatting [0.3374875022248866]
スタイル転送は、さまざまな芸術スタイルで3Dアセットを強化し、創造的な表現を変革する。
本稿では,3次元ガウス表現シーンにおける3次元オブジェクトのスタイリング手法であるStyleSplatを紹介する。
様々な3Dシーンやスタイルにまたがって有効性を示し、3D生成における制御とカスタマイズの強化を示す。
論文 参考訳(メタデータ) (2024-07-12T17:55:08Z) - Style-NeRF2NeRF: 3D Style Transfer From Style-Aligned Multi-View Images [54.56070204172398]
本稿では,3次元シーンをスタイリングするための簡易かつ効果的なパイプラインを提案する。
我々は、スタイル整列画像-画像拡散モデルにより生成されたスタイリング画像を用いて、ソースNeRFモデルを精細化し、3Dスタイルの転送を行う。
本手法は,現実の3Dシーンに多彩な芸術的スタイルを,競争力のある品質で伝達できることを実証する。
論文 参考訳(メタデータ) (2024-06-19T09:36:18Z) - 3DStyle-Diffusion: Pursuing Fine-grained Text-driven 3D Stylization with
2D Diffusion Models [102.75875255071246]
テキスト駆動型スタイリングによる3Dコンテンツ作成は、マルチメディアとグラフィックコミュニティにとって根本的な課題となっている。
2次元拡散モデルから制御可能な外観と幾何学的ガイダンスを付加した3次元メッシュのきめ細かいスタイリングをトリガーする新しい3DStyle-Diffusionモデルを提案する。
論文 参考訳(メタデータ) (2023-11-09T15:51:27Z) - CLIP3Dstyler: Language Guided 3D Arbitrary Neural Style Transfer [41.388313754081544]
言語誘導型任意型ニューラルスタイル転送法(CLIP3Dstyler)を提案する。
従来の2D手法であるCLIPStylerと比較して、3Dシーンをスタイリングし、モデルを再訓練することなく新しいシーンに一般化することができる。
我々は,テキスト誘導型3次元シーン転送におけるモデルの有効性を示すため,広範囲な実験を行った。
論文 参考訳(メタデータ) (2023-05-25T05:30:13Z) - HyperStyle3D: Text-Guided 3D Portrait Stylization via Hypernetworks [101.36230756743106]
本論文は,2次元画像の中間表現として,2次元領域と3次元領域を3次元フィールドで橋渡しする3次元GANの成功に着想を得たものである。
本稿では,3次元ポートレートスタイリングのための3次元認識型GANをベースとしたHyperStyle3Dという新しい手法を提案する。
論文 参考訳(メタデータ) (2023-04-19T07:22:05Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - 3DStyleNet: Creating 3D Shapes with Geometric and Texture Style
Variations [81.45521258652734]
本稿では,3次元オブジェクトの幾何学的・テクスチャ的バリエーションを多用する手法を提案する。
提案手法は,多くの新しいスタイルの形状を作成でき,その結果,無駄な3Dコンテンツ作成とスタイルウェアデータ拡張を実現している。
論文 参考訳(メタデータ) (2021-08-30T02:28:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。